Motores del caMbio de paradigMa para la industria
Transcripción
Motores del caMbio de paradigMa para la industria
Junio de 2013 | Nº 138 Nº 138 Junio de 2013 ISSN: 0558/1265 Uruguay 469, piso 2º B C1015ABI Buenos Aires, Argentina Tel: (54-11) 4373-0462 / 8900 (54-11) 4372-7389 Fax: (54-11) 4374-3630 www.safybi.org Revista de la Asociación Argentina de Farmacia y Bioquímica Industrial Revista Revista SAFYBI | Volumen 53 Motivación y eficiencia: motores del cambio de paradigma para la industria farmacéutica Visite nuestra revista online en www.safybi.org TAPA 138.indd 1 Conocimiento científico: SU impacto en las nuevas regulaciones 28/06/2013 12:07 TAPA 138.indd 2 28/06/2013 12:07 STAFF ASOCIACIÓN ARGENTINA DE FARMACIA Y BIOQUÍMICA INDUSTRIAL Uruguay 469 2º B C1015ABI Bs. As., Argentina Tel.: (54-11) 4373-0462 / 8900 Tel.: (54-11) 4372-7389 Fax: (54-11) 4374-3630 [email protected] www.safybi.org SUMARIO 4 •Editorial 6•Ética científica 8 •Descubren un fraude científico en Noruega 9 •Gestion de calidad académica COMISIÓN DIRECTIVA Presidente: Dr. Federico E. Montes de Oca Vicepresidente: Dr. Alberto D. García Secretaria: Dra. Mirta B. Fariña Prosecretaria: Dra. Susana B. Muñoz Tesorero: Dr. Germán C. Fernández Otero Protesorero: Dr. Guido M. Furer Vocales Titulares: Dr. Mariano Arismendi Dr. Martín Dobovsek Dra. Marta Fasanella Dr. Esteban Fiore Dr. Leonardo Fullone Dr. Gastón Landsman Vocales Suplentes: Dr. Gustavo Guzner Dr. Alejandro Meneghini Dr. Luis Moyano REVISTA SAFYBI COMITÉ EDITOR Director: Dr. Héctor I. Giuliani Consejo Asesor: Dr: Alberto García Dr. Federico Montes de Oca Dra. Mirta B. Fariña Dr. Alberto A. Grimoldi Colabora en este Número: Dra. Amalia B. Dellamea Columnistas Acad. Dr. Héctor Giuliani Dr. Oscar Quattrocchi Dr. Oscar Aversa Dr. Fernando Iñón Dr. Mario Lisnizer Dra. Sandra Rumiano Lic. Viviana Trejo Corresponsal de Asuntos Universitarios: Susana Muñoz Administración: Paula Mosquera Fotografía: Marcela Marinangeli 14•Una contribución para superar el obstáculo epistemológico de la experiencia primera en Química Medicinal Computacional 16•Estudio bioquímico en ratones por exposición subaguda al decocto de Solidago Chilensis, especie autóctona de relevancia medicinal 18•Estudio de estabilidad por tlc y hplc de cápsulas que contienen extracto seco de graviola 20•Preparación, caracterización y estabilidad de complejos de inclusión de compuestos bioactivos con ciclodextrinas modificadas Nuestras actividades 22•Curso: protocolo de calificación de equipos de microbiología •Validación de procesos y calidad por diseño •Recomendaciones de las nuevas guías FDA y EMA para la Estrategia de Validación de Productos y Procesos 23•Curso: Liderazgo y Coaching •Curso-Taller / 07-08 Mayo 2013 Logística en Condiciones Reguladas •Diseño y construcción de áreas farmacéuticas 24•Análisis de riesgo en la industria farmacéutica VOL 53, No 138 prácticas de fabricación de la PIC (Pharmaceutical inspection Convention) PE 009-10 38•Nuevas normas de buenas prácticas de fabricación para excipientes farmacéuticos 40•Lista de excipientes de alto riesgo de la SFDA 41•Determinación de impurezas inorgánicas en productos farmacéuticos 44•Resolución de problemas 48•¿Qué sucederá con las futuras generaciones si el deterioro ecológico continúa? 49•La incorporación de talento como ventaja competitiva y la empleabilidad de los profesionales de la industria 51•“Procesamiento Aséptico en la Industria Biofarmacéutica” 52•Desarrollan un método eficaz y económico para purificar la eritropoyetina 53•Exitosa participación argentina en la Convención Internacional de Biotecnología de Chicago 54•El rincón del artista: Peter Ploder 55•Europa exigirá nuevos requisitos a los fabricantes y distribuidores de medicamentos para evitar las falsificaciones 56•Reología de una dispersión 60•Agua Ultra Pura Sartorius 26•Primera edición del curso de posgrado en biotecnología farmacéutica 62•Descubrimiento científico investigación, invención y desarrollo del prototipo 28•Quick Response Manufacturing (QRM) 63•Proyecto de inyección Termoplásticos 32•Establecimiento de parámetros de validación para procedimientos de referencia aceptables 64•ANVISA RDC n° 49, cambios posteriores al registro de productos biológicos 34•Métodos de Disolución de la FDA 65•Gastos en Salud y Medicamentos Impacto de los Biosimilares 35•Modificaciones en las buenas Arte y diagramación: Virginia Gallino Comercialización: DKsiclo Group Cel: (011) 15-4474-2426 [email protected] Cordinación General: Lic. Doris Kaplán ISSN 0558-7265 Inscripta en el Registro Nacional de Propiedad Intelectual Nº 672-122 Publicación Trimestral de la Asociación Argentina de Farmacia y Bioquímica Industrial, Uruguay 469 2º B, Capital Federal. Está incorporada al servicio de información bibliográfica internacional Pharmaceutical Abstracts Service. SAFYBI es publicada en Buenos Aires. Circula sin cargo entre profesionales y Empresas asociadas a SAFYBI. Las opiniones vertidas en artículos y traducciones son exclusiva responsabilidad de los Señores Autores. Producción integral: DKsiclo Group e- mail: [email protected] Preimpresión e impresión: Artes Gráficas Buschi Foto de tapa: Laboratorio Novocap. Sector Recubrimiento, Lecho Fluido Vector. 3 Editorial EDITORIAL MISIÓN CUMPLIDA Sin mirar atrás, para no lamentarnos de errores cometidos, intentamos construir el futuro. Y el futuro merece nuevas caras y nuevas ideas. Aunque no haya motivos. Festejamos. Este es el número 36 de mi etapa como director de la revista; Estos nueve años están lejos de los sesenta que el año anterior cumplía Safybi, pero fueron suficientes para consolidar y disfrutar de la amistad, confraternidad, camaradería, solidaridad, de aquellos colegas con quienes recorrimos distintos laboratorios de la Industria Farmacéutica y los mismos claustros universitarios, que hoy algunos siguen recorriendo como docentes. Esta ha sido para mí una experiencia enriquecedora. No puedo dejar de recordar a quienes me precedieron en la dirección de la revista, el Dr. Zenón Lugones, El Dr. Samuel Lamdan, La Dra. Mirta Fariña y el Dr. Humberto Torriani de quienes he aprendido el oficio. A los colaboradores, columnistas, a la secretaría de Safybi, y a la coordinación de la Lic. Doris Kaplán que manejó los hilos de la diagramación, la comercialización y la distribución de la manera más eficiente y a los lectores a los cuales pude llegar. La información es uno de los recursos más valiosos con que contamos para tomar decisiones, entender lo que sucede, realizar nuestras propias interpretaciones. Pero si bien vivimos en una época en la que recibir y transmitir información parece sencillo, existen dificultades para que la gente acceda a datos precisos sobre los temas que le interesan, especialmente los relacionados con la salud. A veces, simplemente no están disponibles para el público porque aún están en etapa de experimentación; pero en otras es el celo de los científicos de publicitar sus logros. Vale la pena recordar las palabras del Primer Ministro de Salud Pública que tuvo nuestro país, el Dr. Ramón Carrillo: “Solo sirven las conquistas científicas sobre la salud si éstas son accesibles al pueblo”. Ese fue uno de los objetivos, no sé si suficientemente logrado, que me guió en esta empresa. Trabajamos con un criterio abarcativo: no pensamos un medio de comunicación solo para profesionales o para estudiantes sino para todo aquel que sienta la necesidad de saber más. En esta psedo despedida, deseo que quien me suceda en esta comprometida tarea tenga tanto apoyo como el que este Director tuvo. Muchas gracias. Acad. Héctor I. Giuliani SUBCOMISIONES QUE SESIONAN REGULARMENTE EN SAFYBI Subcomisión de Productos Médicos y Esterilización Presidente: Maria Celeste González email: [email protected] Miembros: Laura Brodecki Arnaldo Buccianeri Gustavo Enríquez Nora Graña Maria del Carmen Graziano Alberto Grimoldi Andrea Induni Rita Metz Susana Piccardo Omar Silvetti Natalia Sygiel Isaac Szeinberg Natalia Yusso Subcomisión de Distribuidoras y Operadores Logísticos Subcomisión de Materias Primas Farmacéuticas Presidente: Susana Muñoz email: [email protected] Presidente: Dora Tombari email: [email protected] Miembros: Liliana Kuharo Luis Moyano Santiago Santalla Pamela Valdivia Aguilar Miembros: Melina Bisio Hugo E. Del Río Flavio Freiberg Victoria Herr Andrea R. Martínez Subcomisión de Informática Presidente: Mariano Arizmendi Ética científica Fragmento del libro INGEGNIERI DELLA VITA. Medicina e morale nell era del DNA” (Sperling and Kupfer editori) cuyo autor es el premio Nobel de Medicina 1975, Renato Dulbecco . Desde el punto de vista ético la ciencia es por naturaleza neutral. Un descubrimiento, una nueva teoría científica, no es en sí misma ni buena ni mala, pero se hace buena o mala según como sea utilizada. Esta ambigüedad de la investigación hace que muy a menudo la tarea del científico sea sospechosa a los ojos de la nueva teoría científica, no es en sí misma ni buena ni mala, pero se hace buena o mala según como sea utilizada. Esta ambigüedad de la investigación hace que muy a menudo la tarea del científico sea sospechosa a los ojos de la gente. El 14 de mayo de 1796, El Dr. Edward Jenner, propulsor de la vacunación, inoculó el virus de la viruela a un niño de ocho años. El “cobayo humano” resultó inmune, demostrando en su propia piel la eficacia de la terapia, abriendo así el camino a la victoria definitiva sobre el terrible mal. En 1800, Walter Reed, un médico militar americano, para entender la génesis y la transmisión de la fiebre amarilla, reclutó voluntarios a los que hizo picar por mosquitos. De tal manera, llegó a demostrar que la enfermedad, como se sospechaba, era efectivamente transmitida por estos insectos, pero los voluntarios pagaron caro por el descubrimiento.. Hoy, tales métodos serían condenados por toda la comunidad y aún más, fortalecerían los rigores del código penal. El uso de “cobayos humanos” está absolutamente prohibido, a menos que se trate de enfermos sin esperanza, que voluntariamente se someten al experimento como última chance de curación. Como se ve, un mismo comportamiento, también en el campo científico, puede ser acertado o equivocado desde el punto de vista ético según el país y la época histórica en que se realiza. La ética tiene la función de relacionar los sentimientos y los comportamientos del individuo, para favorecer al máximo los objetivos y las expectativas de todos. En esencia, son reglas dictadas por la mente humana, no leyes universales y eternas promulgadas por alguna entidad trascendente. Uno de los aspectos más importantes de la ética aplicada a la ciencia es la evaluación y la prevención de los peligros propios de la actividad científica. Hasta hace un siglo, los científicos se consideraban de alguna manera un cuerpo monolítico, una suerte de comunidad extraterritorial, completamente autónoma y soberana, ajena al imperio de la ley y de la moral. Era una consecuencia de las doctrinas positivistas, que consideraban el progreso del conocimiento un bien absoluto, preservable a cualquier costo. En el caso que surgiera cualquier problema ético o alguna controversia a dirimir, la solución debía ser encontrada en el seno de la comunidad científica sin intervención de autoridades externas. La primera brecha de la autorreglamentación en el cenáculo de la ciencia, fue abierta por la bomba de Hiroshima y por la crisis de conciencia que ella desencadenó entre los físicos que habían puesto a punto esta arma mortífera (hace algunos años, setenta de los cien veteranos del proyecto Manhattan firmaron un manifiesto a favor del desarme nuclear). Pero el golpe de gracia fue dado por los biólogos ocupados en la manipulación del DNA. Y en esa oportunidad no hubo necesidad de bombas, incidentes, requisitorias periodísticas o judiciales. Los científicos mismos dieron la alarma. Desde ese cambio de mentalidad el problema fue más fácil. En la década del ’70 aparecie- 6 ron los comités de ensayos y los científicos comenzaron a legislar en materia de seguridad biológica. No tenemos la más lejana idea de lo que podría suceder si se alteran los equilibrios de la biosfera liberando microorganismos antes inexistentes, producidos artificialmente en el laboratorio. Podría no suceder nada, aparentemente por meses o por años y luego explotar de golpe algo irreparable. Es una apuesta con muchas incógnitas. Desde hace miles de años, el hombre lucha para disfrutar los recursos del planeta, materias primas, energía, plantas, animales con el fin de maximizar su propio bienestar. La concepción bíblica y luego cristiana del universo ha consagrado solemnemente esta posición de dominio de nuestra especie “Recuperamos el derecho original, que Dios nos ha dado, de disponer de la naturaleza”. exhortaba el filósofo inglés Francisco Bacón en los comienzos de los años 1600. Y del otro lado de la Mancha respondía Cartesio: “En lo creado no existe nada que no tenga para nosotros alguna utilidad”. En vano el contemporáneo Montaigne decía: “tenemos el deber de tratar de modo humano no solo a los animales vivientes, sino también a las plantas y a los árboles”. Su voz permaneció mucho tiempo aislada. Se puede decir que la visión antropométrica del mundo prevaleció en la cultura occidental hasta nuestros días. Solo en los años recientes hemos aprendido que la naturaleza no puede ser violentada impunemente, y que el equilibrio roto termina por restablecerse a costa nuestra, en forma de aluviones, catástrofes, contaminación o radioactividad. Los movimientos ecologistas responden a exigencias indiscutibles, absolutamente evidentes. También los científicos deberían dar prueba de responsabilidad: no pueden actuar con ligereza cuando está en juego el equilibrio ambiental. Deberían calcular las consecuencias de las propias acciones y cuando esto no es posible, en presencia de riesgos imprevisibles, renunciar a la experimentación. Todo comenzó en 1988, cuando la prestigiosa revista The Lancet publicó un artículo científico en el que Andrew Wakefield, investigador del Royal Free Medical School, de Londres, decía haber hallado un vínculo entre la vacuna triple viral y un nuevo síndrome que combinaba autismo con una grave enfermedad gastrointestinal. Bastó una conferencia de prensa, en la que el elocuente Wakefield sugirió que la vacuna podía causar autismo, para que los movimientos antivacunas, hasta ese entonces bastante endebles en virtud de la carencia de evidencias, salieran a convencer al público de que todas las vacunas enfermaban. El artículo de Wakefield creó una controversia mundial sobre la vacuna contra el sarampión, las paperas y la rubeola, al afirmar que causaba autismo. Esto llevó a que se redujera el uso de la vacuna en Inglaterra, Estados Unidos y otros países, recordaba, varios años después, la revista The New England Journal of Medicine. En 2011, una investigación llevada adelante por el periodista Brian Deer y publicada en la revista British Medical Journal, develó cómo y porque Wakefield fraguó las evidencias que respaldaron su grito de alarma en torno a la triple viral. Wakefield, básicamente, estaba detrás del desarrollo de una vacuna “segura” y de un kit diagnóstico para de- tectar el nuevo síndrome. Sus intereses eran puramente comerciales y su artículo científico era un fraude. Pero el daño aún persiste. Todavía no son pocos los grupos antivacunas que siguen ciegamente agitando el fantasma del autismo. En países como Estados Unidos o Inglaterra, que antes de la publicación de Wakefield ostentaban tasas de vacunación envidiables, han surgido brotes de las afecciones incluidas en la triple viral, como resultado de la menor vacunación. Y revisando mis archivos encontramos este otro caso decididamente lamentable. Descubren un fraude científico en Noruega Oslo (AP).- Ayer comenzó a deliberar una comisión independiente que analiza una fraudulenta investigación sobre cáncer realizada por un científico noruego. El panel de expertos revisará los estudios realizados por el investigador que la semana pasada admitió haber fraguado los datos sobre los que basó un estudio que afirmaba que ciertas drogas antiinflamatorias reducían el riesgo de cáncer de boca. Se sospecha que 1000 de los pacientes sobre los que se basó el estudio cuyas conclusiones publicó la revista médica The Lancet en octubre pasado no existen. El Hospital Noruego Radium de Oslo, donde se realizó el estudio, se negó a dar a conocer la identidad del investigador cuestionado. Sin embargo, la misma revista científica The Lancet informó que se trata de Jon Subdo, de 44 años. La comisión no solo estudiará el estudio publicado en The Lancet, sino también todos los trabajos previos del investigador. “Esto es muy difícil para la ciencia noruega, declaró Anders Ekbom, profesor del Instituto Karolinska, que dirigirá a la comisión investiga- 8 Se dice que “cuando los hechos hablan, la razón calla porque la razón es hija de los hechos y no los hechos hijos de la razón”. O no? Acad. Héctor I. Giuliani dora. Plantea un problema aún mayor sobre las bases de datos con la que se cuenta”. Un panel médico de Oslo y del condado de Akershus informó que abrirá un juicio disciplinario contra el investigador y contra el hospital donde realizó sus investigaciones. El estudio fraudulento afirmaba que medicamentos analgésicos tradicionales, como el ibuprofeno y el naproxeno, eran capaces de reducir el cáncer de boca, pero aumentaban el riesgo de padecer problemas cardíacos. Subdo, se negó a hacer declaraciones a la prensa. Este caso firmado por Doug Mellgren fue publicado en un matutino de Buenos Aires el 20 de enero de 2006. n JORFyBI - Garantía de Calidad GESTIÓN DE CALIDAD ACADÉMICA UTILIZACIÓN DE UNA PLATAFORMA WEB PARA LA ADMINISTRACIÓN DE UN SISTEMA DE GESTIÓN DE CALIDAD DE UNA MATERIA DE POSGRADO SEGÚN NORMA IRAM ISO 9001:2008 Martín Dobovšek Profesor adjunto de la Cátedra de Farmacotecnia II, Facultad de Farmacia y Bioquímica, Universidad de Buenos Aires. Farmacéutico. Bioquímico. Máster en Dirección de Empresas (Deusto-USAL), Argentina. n INTRODUCCIÓN Los Sistemas de Gestión de calidad tienen como particularidad su base documentaria y la existencia de registros como evidencias de su implementación y su efectividad. El volumen de esta información está asociado al nivel de actividades que debe administrar una organización. Esto implica que existen situaciones donde el mantenimiento y la operación de estos sistemas puede resultar problemática por la ingente cantidad de recursos administrativos que requiere asignar. En el presente trabajo se presenta una alternativa efectiva en cuanto a la administración, mantenimiento, difusión, capacitación del personal involucrado y repositorio de registros de un sistema de gestión de calidad ya existente de la materia Dirección de Empresas (en trámite de actualización de la materia “Organización, Economía y Mercadotecnia Farmacéutica”) de las carreras de especialización de la Facultad de Farmacia y Bioquímica (UBA). Asimismo, a través de esta implementación, que es base del temario en la enseñanza de esta carrera de posgrado, los alumnos pueden ver los resultados de la metodología empleada. n MATERIALES Y MÉTODOS El sistema de gestión de calidad de la materia Dirección de Empresas se encuentra alineado según la norma ISO IRAM 9001:2008 1. Consta de su Manual de Calidad, los documentos obligatorios requeridos por la norma además de los documentos propios necesarios para la gestión de la materia. Las evidencias de su operación la conforman los registros asociados. Se utiliza la plataforma Claroline 2 en su versión 1.8 estable de la UCL (Universidad Católica de Louvain 3, Bélgica). Se trata de un software de código abierto (libre) muy bien documentado además de soporte. La evaluación evidencia excelente estabilidad, cantidad de usuarios y número de instalaciones internacionales. Requiere una estructura LAMP o XAMP (servidor web Apache 4, PHP 5 y MySQL 6. El servidor en internet se encuentra sobre una base FREEBSD 7. Se instala además un espejo en plataforma virtual VMWARE 8 en sistema operativo Debian 9 lenny con Vmware Tools para su gestión. Esta virtualización permite una rápida clonación del servidor así como su mantenimiento y en caso de ser necesario, la seguridad de sus contenidos al poder tener un servidor en la red interna de la organización. n RESULTADOS Se crean perfiles de usuarios y responsables para el curso. El perfil de administración de la plataforma posee todos los permisos habilitados. (fig. 1) Mediante la herramienta “Documentos” se publicaron los documentos del sistema de gestión (fig. 2). Se crearon árboles de directorio para documentos vigentes, aprobados no vigentes y obsoletos. En ellos se publicaron los documentos controlados, que en el caso de esta organización se encuentran editados en Flash. Los registros se archivan en directorios específicos de esta herramienta en el formato original (Word, txt, pdf, GIF, TIFF, etc.). Se oculta o habilita individualmente cada archivo para su visualización o no por parte de los usuarios. La evaluación de la capacitación del personal involucrado, así como el seguimiento y registro de dichas actividades se realizó mediante la herramienta “Cuestionarios” (fig.3). El usuario accede a las evaluaciones en línea (fig. 4). La verificación del estado de entrenamiento y resultados se consulta con el rol de permisos correspondiente (fig. 5). Se crearon rutas de entrenamiento específicas mediante la herramienta “Secuencias de aprendizaje” (fig. 6). Se asociaron los contenidos (ej. documentos, procedimientos, cuestionarios asociados, videos) a Figura 1 9 Figura 2 Figura 3 Figura 4 un determinado entrenamiento que se requiere para una posición, proceso o persona. El capacitado al ingresar al sitio se encuentra con una guía específica del proceso de entrenamiento donde los contenidos y las evaluaciones se encuentran ordenados y los registros de sus actividades y resultados son automáticamente archivados y monitoreados (fig. 7). Se verifica el estado de la capacitación de un determinado usuario por consulta con el rol correspondiente. Se activó un nivel mínimo de 10 resultados para impedir el avance del entrenamiento a etapas siguientes hasta que el mismo sea superado por el capacitado (en este caso 100% correcto). Se crearon equipos de personas asociados a procesos mediante la herramienta “Grupos” (fig. 8). Se crearon a su vez repositorios específicos de documentos y foros para la discusión del contenido de un determinado documento en emisión. La difusión de información relacionada a la plataforma se realizó me- Figura 5 Figura 6 Figura 7 11 Figura 8 Figura 9 La utilización de plataformas educativas para la gestión de sistemas de gestión permitió lograr una efectiva reducción en la asignación de recursos para su funcionamiento así como mejorar la actividad y eficacia de gestión. La gran flexibilidad de estos sistemas así como las herramientas que poseen permitió un diseño de administración particularizado, en este caso, a la materia de posgrado. El trabajo presentado es una evidencia práctica de cómo poder utilizar herramientas existentes en aplicaciones específicas orientadas a su difusión y administración. La efectividad en la difusión del sistema está solucionada intrínsecamente en su diseño dada su plataforma www y su fácil acceso a través de un navegador. La herramienta Cuestionarios permitió agilizar la evaluación de la capacitación del personal involucrado, así como el seguimiento y registro de dichas actividades. El resultado final es un seguimiento facilitado de quién fue entrenado en qué contenido, el resultado de esa evaluación, y, la posibilidad de repetir esas capacitaciones y evaluaciones sin la necesidad de una nueva intervención directa del entrenador, como en las prácticas convencionales.n n Bibliografía “Implementación de un sistema de calidad en una Carrera de Especialización Farmacéutica”, Manco, K., Dobovsek, M. CIDUI – Congreso Internacional Docencia Universitaria e Innovación. Barcelona – España. Mayo 2010 1 ISO9001:2008, International Organization for Standardization, http://www.iso.org 2 http://www.claroline.net 3 http://www.uclouvain.be/ 4 http://www.apache.org 5 http://www.php.org 6 http://www.mysql.com 7 http://www.freebsd.org/ 8 http://www.vmware.com 9 http://www.debian.org diante la herramienta “Anuncios” (ej. la colocación en vigencia o entrenamiento de un determinado documento) (fig. 9). El envío se realiza mediante un servidor de mail (MTA o SMPTE). Se informa a la totalidad o sólo a personas o grupos seleccionados respecto de determinadas situaciones, por ejemplo, la publicación del documento de un proceso específico con destinatarios a los involucrados en su ejecución. n CONCLUSIONES 12 JORFyBI - Asuntos Regulatorios Farmacéuticos y Asuntos Educativos Farmacéuticos Una contribución para superar el obstáculo Epistemológico de la experiencia primera en Química Medicinal Computacional Graciela Pinto Vitorino, Alejandra E. Apesteguía, Alfio A. Zambon Química Medicinal. Departamento de Farmacia, Facultad de Ciencias Naturales, Universidad Nacional de la Patagonia San Juan Bosco, Km. 4, 9000, Comodoro Rivadavia, Chubut. n Resumen El uso de la computadora como herramienta auxiliar de la práctica docente, ha crecido de manera exponencial en los últimos años. En el caso particular de la enseñanza de la Química Medicinal, programas como Hyperchem permiten, entre otras aplicaciones, que alumno grafique y observe las estructuras moleculares de los fármacos de forma tridimensional, y las superponga identificando los grupos farmacofóricos. Con el transcurso del tiempo, observamos que los alumnos grafican fácilmente las estructuras químicas en el entorno virtual, que incorporan rápidamente las pautas “técnicas” del empleo del software, pero que, contrariamente les resulta dificultoso por ejemplo: ubicar y modificar ángulos diedros, pensar en repulsión entre átomos, identificar problemas de impedimento estérico, entre otras cosas. Uno de los grandes aportes que realizó Gastón Bachelard a la teoría del conocimiento, fue el de “obstáculo epistemológico”. Los obstáculos epistemológicos son dificultades psicológicas que no permiten una correcta apropiación del conocimiento. No se refieren a los elementos externos que intervienen en el proceso del conocimiento científico, como la complejidad o dificultad para captarlo, sino a las condiciones internas que dificultan al sujeto acceder al conocimiento, uno de esos obstáculos es el de la experiencia primera. Considerando que para los alumnos a los que está destinada la práctica, la computadora y el entorno gráfico virtual, forman parte de un “mundo” utilizado de manera cotidiana en su vida de relación para actividades como la comunicación o el esparcimiento, inferimos que les resulta difícil sustraerse de está situación, para emplear el recurso como medio para aplicar o comprender conceptos teóricos. En el empleo usual de la computadora, no es común realizar actividades que puedan compararse con nociones como la rotación de enlaces, repulsión de cargas, restricciones estéricas, etc. Podemos interpretar que estamos frente a una manifestación concreta del obstáculo epistemológico de la experiencia primera, obstáculo que podemos considerar les impide a los alumnos mirar el fenómeno con ojos científicos. Buscando contribuir a la superación de estas dificultades implementamos la modificación que presentamos en este trabajo. n Materiales y Métodos Como medio para tratar de superar las dificultades observadas organizamos e implementamos un nuevo trabajo práctico. Para ello, en una primera parte del trabajo práctico se solicitó a los alumnos que: 1 grafiquen las estructuras químicas en papel, 2 armen los modelos moleculares clásicos 3 empleen el programa computacional Hyperchem para: 3.1 graficar las estructuras, 3.2 realizar cálculos de energía y determinar la/s estructura/s más estable/s. Con estas actividades buscamos que el alumno recuerde y relacione conceptos teóricos previos, tratando de fomentar una actitud que lo predisponga a la apropiación del conocimiento científico. En una segunda parte del trabajo práctico buscamos reforzar los conceptos teóricos específicos de la asignatura, inherentes al establecimiento de las relaciones entre la estructura molecular y la actividad biológica de los fármacos, tales como: • Interpretación del empleo de análogos estructuralmente rígidos para determinar conformaciones activas de los fármacos, 14 • Análisis de las estructuras de fármacos agonistas y antagonistas. Farmacóforo. • Visualización de receptores mediante el empleo del software DeepView • Identificación de sitios de unión fármaco-receptor n Resultados En particular, en el caso del uso del software, presuponíamos y lo comprobamos en la práctica, que la graficación en papel y el armado de los modelos, prepara al alumno para identificar relaciones espaciales en la molécula, lo que resulta muy difícil de observar e interpretar cuando se trabaja directamente con la computadora. Consideramos que la secuencia implementada contribuye a la superación del obstáculo epistemológico. La modificación efectuada ha permitido a los alumnos, fijar algunos conceptos previos e interpretar mejor los nuevos. Este trabajo práctico se incorporará al cronograma de actividades del próximo ciclo lectivo. n Conclusiones Resulta destacable, que los programas computacionales que actualmente se utilizan de manera rutinaria, tienen un entorno amigable, y no requieren de un gran conocimiento previo para comenzar a utilizarlos. Esto puede presentar riesgos respecto a la interpretación de los resultados obtenidos, ya que permiten realizar una práctica, sin necesariamente haberse apropiado de los conocimientos necesarios para interpretarla. Bachelard identifica diez obstáculos epistemológicos; el primer obstáculo a superar es el de la experiencia primera; está experiencia esta conformada de informaciones que se perciben y se alojan en el espíritu generalmente en los primeros años de la vida intelectual y esas informaciones no se pudieron someter a critica alguna, pues el espíritu se encontraba altamente voluble dado que se encontraba sumergido en la inconsciencia del ignorar; al no sufrir critica alguna estas experiencias primeras pasan sin tamizar a convertirse en verdades primarias frente a las que es imposible crear nuevos conocimientos que vayan en contra de las mismas. [Bachelard, G. 2007]. En esta propuesta, buscamos contribuir a la superación del obstáculo identificado mediante la estrategia de comenzar con las representaciones en papel de las estructuras químicas, continuar con el armado de modelos moleculares físicos, y luego abordar la herramienta computacional. Esta secuencia pretende facilitar el proceso de apropiación del conocimiento buscado, ya que fomenta entre otras cosas, la búsqueda de analogías con los modelos moleculares físicos, proceso que contribuye a superar el obstáculo de la experiencia primera ante la práctica con la computadora, y permite considerar al entorno gráfico virtual, no como un juego social, sino además, como una herramienta válida para la apropiación de conocimientos científicos.n n Bibliografía: Bachelard, G. La Formación del Espíritu Científico. Contribución a un psicoanálisis del conocimiento objetivo. 26° edición. Siglo XXI Editores. Méjico. 2007. Meinardi, E.; González Galli, L.; Revel Chion, A.; Plaza, M.V. Educar en Ciencias. Editorial Paidós. Argentina. 2010. Carvalho, I., Pupo, M.T., Borges, A.D.L., Bernardes, L. A laboratory course in medicinal chemistry introducing Molecular modeling. Tomado de: ww.iupac.org/ publications/cd/medicinal_chemistry/, consultado en junio de 2011. Lemke Thomas et. al. Foye´s Principles of Medicinal Chemistry. 6ª edición. Lemke Thomas L, editor. USA: Editorial Lippincott Williams & Wilkins; 2008. JORFyBI - Fitoterapia: Activos de origen vegetal / Productos Fitoterápicos ESTUDIO BIOQUÍMICO EN RATONES POR EXPOSICIÓN SUBAGUDA AL DECOCTO DE Solidago chilensis, ESPECIE AUTÓCTONA DE RELEVANCIA MEDICINAL Alejandro Bucciarelli, Cristina Bras, Sergio Domínguez, Alejandra Minetti, Mario I. Skliar Departamento de Biología, Bioquímica y Farmacia, Universidad Nacional del Sur. n Resumen Solidago chilensis (Asteraceae), conocida como vara dorada, vara de oro”, “arnica do campo”, “fulel”, es una especie nativa tradicionalmente empleada con diferentes fines medicinales tales como anticefalálgico, febrífugo, calmante, vulnerario, digestivo, antigonorreico, diurético y para el tratamiento de afecciones renales y heridas. Algunos estudios experimentales han demostrado su actividad antibacteriana, antiviral, antiséptica, hipotensora, antiinflamatoria, antiagregante plaquetaria y gastroprotectora en diferentes modelos animales. Sin embargo, al igual que muchas plantas autóctonas, esta especie no ha sido investigada en forma integral para ser considerada como materia prima de medicamentos, existiendo nulas o escasas investigaciones toxicológicas. Son numerosas las drogas vegetales que proviniendo de estas plantas, y a las cuales recurre la población por su reconocido uso tradicional, cuentan con escasa información que permita asegurar su inocuidad. Esta situación es relevante en países como la Argentina, donde un elevado porcentaje de la población se encuentra por debajo de la línea de pobreza y no tiene acceso a medicamentos esenciales o el mismo se encuentra restringido. Teniendo en cuenta el uso etnomedicinal de la planta, y dado que no existe información referida a estudios toxicológicos, el objetivo del presente trabajo fue evaluar por primera vez el efecto de la administración subaguda del extracto de la planta por vía oral sobre parámetros bioquímicos en ratones. n Materiales y Métodos El material vegetal fresco correspondiente a las inflorescencias de S. chilensis fue desecado en estufa a 40 °C. El decocto del material vegetal se obtuvo por extracción con agua mantenida en ebullición durante 20 min (2X, 1:10 p/v, rendimiento: 22 %). Los extractos se reunieron, filtraron y llevaron a sequedad a presión reducida. Se utilizaron ratones CF-1 de ambos sexos, de 8 semanas de edad, con un peso entre 30 y 40 g, mantenidos bajo las mismas condiciones de temperatura (22° ± 1 ºC), humedad (70 %) y ciclos de luz/oscuridad de 12 h, a los que se les suministró agua y alimento ad libitum. El cuidado y tratamiento de los animales se realizó teniendo en cuenta las recomendaciones de la Guía para el Cuidado y Uso de los Animales de Laboratorio. El estudio toxicológico se llevó a cabo siguiendo las pautas de la OECD para estudios de toxicidad oral a dosis repetidas en roedores. Los animales se distribuyeron aleatoriamente en 2 grupos (control y tratado) de 16 animales cada uno (8 hembras y 8 machos). El decocto de la planta fue incorporado al alimento y éste fue posteriormente administrado durante 28 días al grupo tratado. La dosis recibida por cada animal fue de 1000 mg/kg de peso/día, dosis límite establecida para ensayos de toxicidad subaguda por vía oral. Para ello, previo a la exposición y durante la misma se monitorearon el consumo y el peso corporal de todos los animales para administrar una dosis constante de extracto. Los animales del grupo control recibieron dieta estándar. Al finalizar la exposición todos los animales Tabla 1. Parámetros bioquímicos correspondientes a los animales controles y tratados con el extracto de Solidago chilensis. Parámetro Control f ♀♂ Glucosa (mg/dl) 294,6 ± 14,7 Creatinina (mg/dl) 0,56 ± 0,02 AST (mg/dl) 110,5 ± 7,9 ALT (mg/dl) 27,8 ± 1,4 Urea (mg/dl) 60,8 ± 2,2 Colesterol (mg/dl) 75,8 ± 4,4 m f ♀♂ 370,8 ± 5,6 340,0 ± 16,0 0,54 ± 0,03 0,54 ± 0,04 102,3 ± 9,5 120,8 ± 9,9 40,3 ± 4,4 24,3 ± 1,8 57,5 ± 3,2 50,5 ± 3,1** 105,8 ± 5,7 74,4 ± 6,3 Datos expresados como Media ± EEM; AST: aspartato aminotransferasa; ALT: alanina aminotrasferasa; ** p<0,01 respecto al control (ANOVA de dos vías seguido por el test t de Student). 16 Tratado m 408,3 ± 27,1 0,54 ± 0,04 90,4 ± 5,2 34,9 ± 3,6 45,9 ± 1,3** 111,3 ± 7,7 fueron sacrificados y se obtuvieron muestras sanguíneas mediante punción cardíaca para el estudio de los parámetros bioquímicos. Se utilizó heparina como anticoagulante (30 UI/ml). Las muestras fueron centrifugadas a 1500 x g durante 1 min para obtener el plasma. Para la evaluación de la función hepática se determinaron las enzimas alanina aminotransferasa (ALT) y aspartato aminotransferasa (AST), mientras que para la función renal se evaluaron la urea y la creatinina. El colesterol total y la glucosa se determinaron para el estudio del metabolismo de lípidos y de carbohidratos respectivamente. El análisis estadístico se realizó mediante ANOVA de dos vías seguido por el test t de Student. n Resultados En las condiciones del ensayo no se produjo mortalidad ni se manifestaron signos indicativos de toxicidad en los animales estudiados, como tampoco en el consumo de alimento ni en el peso corporal. El análisis de los parámetros bioquímicos de la Tabla 1 determinó un descenso significativo en el nivel de urea de los grupos tratados con respecto a los controles (P < 0,01). Se observó un descenso marcado pero no significativo de las enzimas ALT y AST, mientras que la glucosa se incrementó en ambos grupos de animales tratados. Los niveles de colesterol y creatinina tampoco mostraron variaciones significativas. n Conclusiones Los resultados del estudio toxicológico sugieren el uso seguro de la especie y permiten establecer los potenciales riesgos sobre la salud que implica su utilización por la población. En estudios previos ob- servamos que la exposición aguda por vía oral al extracto acuoso de la planta no produjo mortalidad ni signos indicativos de toxicidad en los animales estudiados, como tampoco alteraciones en los parámetros conductuales y funcionales ni en la actividad locomotora. La urea y creatinina presentes en la sangre son excretadas por el riñón, por lo que constituyen marcadores de la función renal. Los resultados de esta investigación sugieren que S. chilensis no es tóxica a nivel renal ya que no se observó un incremento de dichos parámetros en los animales tratados. Los resultados sugieren, además, que el extracto no conduce a dislipemias ya que tampoco se detectaron diferencias significativas en los valores de colesterol. Las ALT y AST son enzimas hepáticas que se elevan en casos de daño hepático. Si bien el extracto disminuyó estas enzimas en forma no significativa, se observa una tendencia que podría validar el uso de la planta como protector hepático en casos de trastornos del sistema digestivo. Considerando que los animales fueron expuestos a la dosis límite establecida para los estudios de toxicidad subaguda, los resultados demuestran que el extracto administrado por vía oral no produce toxicidad por exposición subaguda en ratones. Si bien esta ausencia de toxicidad refleja que el posible uso terapéutico del extracto podría ser seguro, son necesarios otros estudios por exposición a largo plazo para asegurar su inocuidad. La validación científica de los usos tradicionales de la especie así como la ausencia de efectos tóxicos posibilitarían su incorporación a la atención primaria de la salud, promoviendo el mejoramiento de la calidad de vida de la población, el desarrollo socioeconómico y el manejo racional de los recursos.n 17 JORFyBI - Fitoterapia: Activos de origen vegetal / Productos Fitoterápicos ESTUDIO DE ESTABILIDAD POR TLC Y HPLC DE CÁPSULAS QUE CONTIENEN EXTRACTO SECO DE GRAVIOLA Paula G. López, Verónica P. Tarcaya, Ingrid Cufre, Graciela E. Ferraro, Adriana M. Broussalis. Facultad de Farmacia y Bioquímica. Cátedra de Farmacognosia. n Resumen Annona muricata (Annonaceae), “graviola”, “guanábana” es un árbol de hasta 5 m de altura que crece en zonas tropicales. El fruto, alimenticio y refrescante, usado en la producción de jugos, caramelos y sorbetes, se emplea popularmente para curar afecciones renales; las hojas se usan para curar diarreas crónicas y disentéricas (1). Numerosas investigaciones sobre la composición química de las hojas y las semillas llevaron al aislamiento e identificación de más de 50 acetogeninas en esta especie. Estos compuestos presentan distintas actividades biológicas, como citotóxicos, antitumorales, antiparasitarios, pesticidas (2). En el presente trabajo se realizó el estudio de estabilidad de cápsulas que contienen extracto seco de hojas de Annona muricata (Annonaceae), graviola, y como excipiente maltodextrina. Se desarrollaron métodos por TLC y un método por HPLC para analizar el extracto seco (materia prima) y el producto terminado (cápsulas). n Materiales y Métodos Cada cápsula contiene: Extracto seco (5:1) de hojas secas de A. muricata: 400 mg / Maltodextrina 100 mg n Análisis por TLC Muestras a analizar. Producto: Graviola. Forma farmacéutica: cápsulas. Fechas de elaboración: Marzo 2007, Octubre 2008, Agosto 2009 y Enero 2010. Preparación la solución muestra de extracto materia prima: Pesar 0,5 g de extracto seco de graviola. Colocar en un erlenmeyer y agregar 15 ml de etanol. Agitar con ayuda de un agitador magnético durante 30 min. Filtrar por papel. Macerar el marco de la extracción con 15 ml del mismo solvente durante 30 min. con ayuda de un agitador magnético. Filtrar por papel. Reunir las 2 soluciones extractivas etanólicas y llevar a sequedad en evaporador rotatorio. Solubilizar en 5 ml de metanol. Preparación de cada una de las soluciones muestra correspondientes las fechas: Marzo 2007, Octubre 2008, Agosto 2009 y Enero 2010: Reunir el contenido de 10 cápsulas de extracto seco de graviola y procesar como la solución muestra de extracto materia prima. Sistema I Fase estacionaria (FE): Cromatofolios de Silicagel HF 254; 0,2 mm de espesor. Fase móvil (FM): Tolueno, acetato de etilo, acetona (85:8:7) Siembra: Las cuatro soluciones muestra correspondientes a las fechas: Marzo 2007, Octubre 2008, Agosto 2009 y Enero 2010 se siembran, cada una, en banda de 1 cm. Volumen de siembra: 100 µl. Revelado: la placa se revela por aspersión con reactivo anisaldehído sulfúrico. Se calienta en estufa a 110 ºC y se observa a la luz natural. Sistema II FE: Cromatofolios de Silicagel HF 254; 0,2 mm de espesor. FM: Tolueno, acetato de etilo, ácido fórmico (50:40:10) Siembra: Las cuatro soluciones muestra correspondientes a las fechas: Marzo 2007, Octubre 2008, Agosto 2009 y Enero 2010 se siembran, cada una, en banda de 1 cm. Revelado: Luego del desarrollo la placa se revela por aspersión con reactivo anisaldehído sulfúrico. Se calienta en estufa a 110 ºC y se observa a la luz natural. n Análisis por HPLC Determinación de acetogeninas en extracto seco de hojas de Annona mu- 18 ricata. Condiciones cromatográficas FE: C 18 Luna Phenomenex 150 x 4.6 mm (5 µm). FM: Mezcla de solventes A y B en gradiente. Solvente A: acetonitrilo (ACN); Solvente B: agua. Gradiente: 70% de A durante 5 minutos; de 70% de A a 80 % de A en 12 minutos y de 80% de A a 85 % de A en 10 minutos. Flujo: 1,0 ml/ min Detector: UV 220 nm/fotodiodos. Volumen de inyección: 20 µl. Preparación de la solución del estándar interno: Pesar en forma exacta aproximadamente 4,00 mg de 4-O-β-glucopiranosil-5-O-metilvisaminol y colocar en un mataz de 10,0 ml. Agregar 5 ml de metanol y disolver con ayuda de un baño de ultrasonido. Llevar a volumen con el mismo solvente. Filtrar por membrana de 0.45 µm. Preparación de la solución del extracto patrón de referencia: Pesar 0,4 g del extracto de graviola estándar patrón de referencia. Colocar en un erlenmeyer y agregar 15 ml de etanol. Agitar con ayuda de un agitador magnético durante 30 min. Filtrar por papel. Macerar el marco de la extracción con 15 ml del mismo solvente durante 30 min. con ayuda de un agitador magnético. Filtrar por papel. Reunir las 2 soluciones extractivas etanólicas y llevar a sequedad en evaporador rotatorio. Solubilizar en metanol y transferir a un matraz de 5,0 ml. Agregar 1,0 ml de la solución del estándar interno. Llevar a volumen con metanol. Homogeneizar la solución resultante. Filtrar por membrana de 0.45 µm. Preparación de la solución del extracto materia prima: Cada una de las soluciones del extracto materia prima se prepara de la siguiente manera: Pesar el equivalente 0,4 g del extracto de graviola materia prima y procesar de la misma manera que la solución del extracto patrón de referencia Preparación de cada una de las soluciones muestra correspondientes las fechas: Marzo 2007, Octubre 2008, Agosto 2009 y Enero 2010: Cada una de las soluciones muestra se prepara de la siguiente manera: Pesar el equivalente 0,4 g del extracto de graviola contenido en las cápsulas y procesar de la misma manera que la solución del extracto patrón de referencia. n Resultados TLC En los sistemas I y II, luego del revelado con reactivo anisaldehído sulfúrico, se observa la coincidencia de perfiles cromatográficos de las soluciones muestra, correspondientes a las fechas Marzo 2007, Octubre 2008, Agosto 2009 y Enero 2010. HPLC. En el sistema desarrollado se observa que no se presentó degradación de los marcadores utilizados (acetogeninas) durante el estudio de estabilidad (0, 19, 29, y 34 meses). n Conclusiones Se propone un vencimiento de 30 meses para estas cápsulas que contienen extracto seco de graviola y maltodextrina. Los métodos desarrollados por TLC y HPLC son un aporte al control de calidad de Annona muricata, graviola.n n Referencias bibliográficas 1. García Barriga H., 1992. Flora Medicinal de Colombia. Tomo I. Tercer Mundo Editores, Colombia, 340-341. 2. Kim G., Zeng L., Alali F., Rogers L., Wu F., Sastrodihardjo S., McLaughlin J. 1998. Muricoreacin and murihexocin C, mono-tetrahydrofuran acetogenins, from the leaves of annona muricata. Phytochemistry 49, (2), 565-571. JORFyBI - Ingredientes Farmacéuticos Activos (IFAs) y Excipientes Preparación, Caracterización y Estabilidad de Complejos de Inclusión de compuestos Bioactivos con Ciclodextrinas Modificadas Peggy A. Ponce-Cevallos1, María P. Buera1,2 y Beatriz E. Elizalde1 1 Departamento de Industrias, Facultad Ciencias Exactas y Naturales, Universidad de Buenos Aires (1428), Ciudad Universitaria, Buenos Aires, Argentina. n Resumen Un paso importante en el desarrollo de ingredientes funcionales es el diseño de procedimientos de formulación para la estabilización, solubilización y liberación de componentes activos en el alimento al cual serán incorporados. Las ciclodextrinas (CDS) son oligosacáridos cíclicos de unidades de glucosa, unidos por enlaces glucosídicos α-1,4. El interés en las CDS se debe a su capacidad para formar complejos de inclusión, encapsulando dentro de su cavidad a moléculas hidrofóbicas con un tamaño adecuado. Esta aptitud ha sido utilizada para aumentar la solubilidad, estabilidad y biodisponibilidad de compuestos lipofílicos tales como vitaminas, colorantes, aceites esenciales y aromas en la industria alimenticia, cosmética y sobre todo, farmacéutica. Sin embargo, las CDS naturales tienen una solubilidad limitada, por lo que se han realizado modificaciones estructurales para producir cambios en sus propiedades fisicoquímicas. Un ejemplo es la Metil-β- ciclodextrina (MBCD). El timol y el cinamaldehído (CINAM) son dos componentes importantes de aceites esenciales naturales. El timol es un monoterpeno y es muy reconocido por sus propiedades antisépticas, fungicidas, antimicrobianas y antioxidantes (Cosentino et al 1999, Youdim y Deans 1999). El CINAM es el componente más importante del aceite de canela y sus aplicaciones más importantes se encuentran en la industria aromática y de sabores. Sin embargo, se ha verificado su efectividad como fungicida e insecticida, además de efectos farmacéuticos como analgésico o antidiarreico (Wang y Cheng 2005, Gende y col., 2008). El objetivo de este trabajo fue estudiar la interacción de dos componentes ampliamente utilizados en la industria farmacéutica: el timol y el CINAM con la MBCD, en solución y en el estado sólido. n Materiales y Métodos Materiales La MBCD fue provista por Sigma Chemical Co. (St Louis MO USA). El timol y el CINAM fueron adquiridos a Carlo Erba (Milán, Italia). Métodos Estudio de Solubilidad de fases. Los estudios de solubilidad de fases fueron realizados de acuerdo al método de Higuchi y Connors (1965) a 25º C. Cantidades en exceso de Timol y de CINAM fueron agregadas a tubos Falcon, conteniendo 10 ml de soluciones acuosas de MBCD en concentraciones crecientes (0 a 0,038 M). El contenido del componente activo en el filtrado fue determinado espectrofotométricamente (UV-1203 Shimadzu, Kyoto, Japón) a 275 nm y a 282 nm para el timol y el CINAM respectivamente. Los cambios en la solubilidad del timol y el CINAM, que resultaron de la adición de las distintas concentraciones de MBCD, fueron utilizados para obtener el diagrama de solubilidad de fases. Las Ke y So (solubilidad intrín- 20 seca) fueron estimadas a partir de la línea recta de los diagramas de solubilidad de fase de acuerdo a la siguiente ecuación (Higuchi y Connors, 1965): pendiente Ke = So × (1− pendiente) (1) Preparación de los complejos sólidos. Los complejos de inclusión de timol y cinamaldehído con MBCD fueron preparados por el método de coprecipitación (Mulinacci et al 1996). El timol y el CINAM fueron agregados a una solución saturada de MBCD a 55º C, en concentraciones equimolares 1:1 de ligando a MBCD. La solución obtenida fue directamente congelada y liofilizada. Calorimetría Diferencial de barrido. La calorimetría diferencial de barrido (DSC) se empleó para verificar la formación de los complejos de la MBCD con el timol y el CINAM. El rango de temperatura programado fue desde -40º C a 100º C para el complejo de timol-MBCD y desde -100º C a 120º C para el complejo de CINAM-MBCD y la velocidad de calentamiento utilizada fue de 10º C/min. Microscopía Electrónica de Barrido (SEM). La morfología superficial de los complejos de la MBCD, el timol y el CINAM fueron determinadas por SEM (Microscopio electrónico Zeiss modelo Supra 40). n Resultados Los diagramas de solubilidad de fases de timol y CINAM con la MBCD a 25º C se muestran en las Figura 1 (a- b). Los diagramas mostraron un comportamiento tipo AL (Higuchi y Connors, 1965), en el cual la solubilidad del timol y del CINAM se incrementa linealmente con la concentración de MBCD. Este incremento de solubilidad puede estar relacionado con la capacidad de la MBCD de incluir al timol y al CINAM. Las pendientes de los gráficos fueron menores que 1, que indicaría la formación de complejos 1:1 (Higuchi y Connors, 1965). Los valores de S0 y de las Ke de los complejos de timol y CINAM con MBCD a 25º C fueron calculados a partir de la ecuación (1) y son mostrados en la Tabla 1. La MBCD mostró diferentes afinidades por el timol y el CINAM. La interacción de la MBCD fue mayor con el timol que con el CINAM. Esto puede ser debido a que el grupo lateral C=C-CHO del CINAM, que posee un grupo insaturado, hace que la molécula sea menos flexible, lo que podría dificultar su entrada en la MBCD (Rekharsky y Inoue, 1998). La Figura 2 muestra los termogramas obtenidos por DSC para la MBCD, timol, CINAM y los complejos 1:1. El termograma del timol muestra un pico endotérmico a 50º C que corresponde a su punto de fusión, mientras que en la curva del complejo timol-MBCD dicho pico desapareció (Figura 2 b). Un comportamiento similar presentó el com- plejo CINAM-MBCD (Figura 2a). El pico endotérmico cerca de -10º C, desaparece completamente en el complejo. La desaparición completa de los picos de fusión es una evidencia más de la formación de los complejos (Karathanos y col., 2007). Las imágenes obtenidas por SEM para el timol mostraron cristales típicos de diferente tamaño y forma, mientras que los complejos de timol-MBCD y CINAM-MBCD 1:1 presentaron una estructura compacta homogénea similar a un polvo (figuras no mostradas). n Conclusiones Figura 1. Diagrama de solubilidad de fases del a) Timol y b) CINAM Figura 2. Termograma obtenido por DSC La MBCD reacciona con el Timol y el CINAM para formar complejos de inclusión 1:1, que se confirmaron por diagrama de solubilidad de fases, DSC y SEM. La formación de los complejos produce un aumento de la solubilidad de los compuestos incluidos. Estos datos podrían contribuir a diseñar procesos de encapsulación, determinando la afinidad, estabilidad y liberación controlada de aromas, pigmentos y otros aditivos farmacéuticos.n Tabla 1. Valores estimados de la solubilidad intrínseca (So), de las constantes de estabilidad (Ke) para los complejos de timol y CINAM con MBCD y sus correspondientes desviaciones estándares (σ) a 25ºC So ± σ (M)Ke ± σ (M-1) Timol CINAM 0,030± 0,001 0,032 ± 0,002 TimolCINAM 391 ± 28 293 ± 18 21 NUESTRAS ACTIVIDADES CURSO: PROTOCOLO DE CALIFICACIÓN DE EQUIPOS DE MICROBIOLOGÍA Ante un auditorio de 25 personas, el Dr. Néstor O. Aversa desarrolló el curso sobre Calificación de equipos de laboratorio de Microbiología, los días 9 y 11 de Abril. El mismo se dividió en 3 partes: Aspectos regulatorios, Documentación (Requisitos de usuario, Especificaciones Funcionales de Diseño, Calificación de Diseño, Instalación, Operación y Performance) y casos prácticos de calificación como ser autoclaves, hornos, flujos laminares y aisladores entre otros. El enfoque general tuvo en cuenta la gestión de riesgo. Los asistentes concurrieron fundamentalmente por las exigencias regulatorias, construcción de nuevos laboratorios, mudanza de existentes y calificación de equipos nuevos. La participación de la audiencia fue muy activa y se destacaron consultas prácticas sobre determinados equipos en particular. Como parte de la documentación entregada se adjuntaron protocolos de calificación acorde a la normativa vigente de la Organización Mundial de la Salud. n Validación de Procesos y Calidad por Diseño Recomendaciones de las nuevas guías FDA y EMA para la Estrategia de Validación de Productos y Procesos Durante los días 19, 21 y 26 de marzo de 2013, se dictó en las instalaciones de la Fundación Pablo Cassará el curso de Validación de Procesos y Calidad por Diseño. La presentación estuvo a cargo de la Farmac. Magdalena Nannei. Las nuevas guías de Validación de Procesos de la FDA y de la EMA alinean las actividades de validación con las recomendaciones de las guías ICH Q8 Desarrollo Farmacéutico, Q9 Gestión del Riesgo de Calidad y Q10 Sistemas de Calidad Farmacéutico. Para la guía de Validación de Procesos de la FDA hay un cambio de paradigma esencial, ya que pasa de la concepción de evidencia documentada a evidencia científica, para justificar que un producto/proceso está validado. Además, el concepto de validación debe extenderse a todo el ciclo de vida, es decir es una actividad que no se limita a los “lotes de validación” sino que se extiende en el tiempo, incluyendo cambios, mejoras y observaciones recogidas en la experiencia de manufactura comercial. Un cambio importante en el modelo de validación es la eliminación de un número específico de lotes a validar, los famosos tres lotes, número que según esta guía debería determinarse de acuerdo a criterios establecidos por el fabricante y que pueden basarse o no en razones estadísticas. En todos los casos, la validación requiere tres pasos: 1) la definición del proceso y el conocimiento del mismo en la etapa de diseño, 2) la calificación del proceso para determinar si es capaz de una manufactura comercial reproducible y 3) el uso de la verificación continua durante la producción de rutina para asegurar que permanece en estado de control. La evaluación de conocimiento del producto y del proceso debe basarse en la Gestión del Riesgo de Calidad y permite determinar las medidas para mitigar el riesgo asegurando que la variabilidad sea controlada por las mismas características del proceso, variabilidad ocasionada por los materiales, los métodos de elaboración, las medidas (análisis), las 22 máquinas (equipos), el medio ambiente y las personas (5 m´s+1p). La nueva guía de la EMA es aún un borrador y se está a la espera de la versión definitiva. Un comentario importante es que esta guía no introduce nuevos requerimientos e intenta clarificar las mejoras que se pueden obtener por la aplicación de las guías ICH Q8, Q9 y Q10. Se reconocen tres tipos de validación y el concepto de ciclo de vida. Los tres tipos de validación son la tradicional (tres lotes), la verificación continua y una estrategia híbrida. Los conceptos de Calidad por Diseño, Espacio de Diseño y Diseño de Experimentos son parte de las necesidades de los nuevos paradigmas de validación. La Calidad por Diseño es una estrategia sistemática de desarrollo, el Espacio de Diseño es la comprensión de los efectos ocasionados por la combinación multivariada de los factores de formulación y del proceso que aseguran la calidad y el Diseño de Experimentos es una estrategia de experimentación por la que se estudian los efectos por la combinación multivariada de factores. Debe enfatizarse que el establecimiento de un Espacio de Diseño permite realizar cambios posteriores al registro de un producto sin necesidad de realizar un nuevo registro, posibilitando con ello grandes ventajas económicas. n NUESTRAS ACTIVIDADES Curso: Liderazgo y Coaching Durante los días 18 y 25 de marzo de 2013, se dicto en las instalaciones de la Fundación Pablo Cassará el curso de Liderazgo y Coaching. La presentación estuvo a cargo de la Lic. Viviana Trejo. En el transcurso de las dos jornadas se presentaron aspectos relacionados con el comportamiento de las personas y de los líderes dentro de las organizaciones. Las expectativas y actitudes que se manifiestan en la mayoría de los líderes organizacionales y que son ampliamente valoradas por el personal a su cargo, son aquellas que demuestren compromiso, reglas de juego claras y objetivos bien definidos. Las características más sobresalientes de los lideres, es que tienen una visión radicalmente nueva que motiva, atrae y convence, virtudes que permiten que se establezcan relaciones dinámicas y productivas. Por ello resulta imprescindible que el líder desarrolle una metodología de acuerdo a su rol de coach, relacionándose con la gente, diagnosticando sus necesidades, creando planes de acción, realizando seguimientos y brindando un feedback continuo. Con respecto a los objetivos del líder en su rol de coach, partiendo de la definición del desarrollo del coaching individual, se concentran en lograr la superación de problemas particulares de desempeño, el desarrollo de ciertas competencias y la preparación para afrontar nuevas y más importantes responsabilidades o desafíos que le permitirán desarrollar la capacidad potencial de cada individuo. Por otra parte, el líder debe implementar sesio- nes de coaching grupales que ayudarán a que el personal mejore la productividad de las reuniones, el incremento de la propia participación en la toma de decisiones, el desarrollo del trabajo en equipo, la resolución de conflictos, etc. La actividad tuvo un alto grado de participación por parte de los asistentes de las diferentes empresas de la industria farmacéutica, con los cuales se pudo compartir experiencias e inquietudes personales, que han sido sumamente enriquecedoras para todos los participantes del encuentro. n Curso-Taller / 07-08 Mayo 2013 Logística en Condiciones Reguladas Buenas Prácticas en el manejo de productos sensibles a la temperatura Un nuevo año y con una temática y abordaje renovado, los disertantes Federico Lupp y Arlette Gago, desarrollaron este Curso-Taller, lamentándose los que no pudieron participar por haberse colmado la capacidad del auditorio de la Fundación Cassara. Se tuvo la oportunidad de poder acceder a información y datos del día a día sobre la realidad en esta materia en otros lugares del mundo, donde llegan productos argentino, permi- tiendo tener una visión más amplia y acabada de la realidad en cadena regulada. La presentación abarcó desde Calificación y Validación y Análisis de Riesgo a las expectativas Regulatorias (WHO, PDA cap. 32, IATA cap. 17 Productos Farmacéuticos, RX360,etc). En el segundo día, la estructura del curso se fue convirtiendo en Taller, donde todos pudieron intercambiar ideas y tratar de resolver el problema de logística que se planteó y donde los diferentes grupos tuvieron la oportunidad de aplicar los conocimientos recibidos, con la moderación de ambos disertantes.n DISEÑO Y CONSTRUCCIÓN DE ÁREAS FARMACÉUTICAS A principio de mayo del corriente año se desarrolló el curso de construcción de plantas farmacéuticas a cargo del Ing. Hernán Chiterer. Este curso fue la reiteración ampliada del desarrollado el año pasado ya que en aquella oportunidad se colmó la capacidad del auditorio. les para una operación farmacéutica 4) Depósitos caóticos 5) Área nueva o área remodelada 6) Operación para terceros 7) Inyectables 8) Áreas Limpias 9) Área de líquidos El temario del curso estuvo centrado en los siguientes temas 1) Como desarrollar un proyecto en forma ordenada para ser económicamente rentable 2) Diseño de una área de solidos 3) Agua y aire. Las materias primas principa- Por otra parte el Ing. Chiterer aportó algunos temas adicionales a esta presentación como son áreas estériles, procesos de llenado aséptico de altísima tecnología, descripción del Proceso Blow, Fill and Seal, diseño de áreas segregadas para productos farmacéuticos de alta complejidad y potencia como betalactámicos, hormonales, inmunosupresores, citostáticos, etc. Entre los participantes se contó con la presencia de Laboratorios de Bolivia y Uruguay.n 23 NUESTRAS ACTIVIDADES ANÁLISIS DE RIESGO EN LA INDUSTRIA FARMACÉUTICA Durante los días 15, 22 y 29 de mayo en el horario de 18 a 21 hs., el Dr. José Felix Blanc desarrolló el curso Análisis de riesgo en la industria farmacéutica. Métodos y Herramientas. Gestión de la Administración de Análisis de Riesgo en la Industria Farmacéutica, es un concepto aplicado desde aproximadamente 10 años. Básicamente consiste en considerar tres factores en cada operación o proceso. Esto incluye todas las actividades desde la recepción de materias primas, productos semi-elaborados o terminados, manufactura, Control de la Calidad, distribución, procesos informáticos, etc. Estos factores son: Severidad, Probabilidad y Detectabilidad. A través de la aplicación de cGMP y un profundo conocimiento del proceso en el que se aplica, se otorga una escala de valores a estos factores. Si se multiplican estos valores se obtiene un índice que se conoce habitualmente como RPN (Risk Priority Number). El objetivo final del análisis de Riesgo consiste en reducir este índice hasta niveles que pueda se puedan aceptar, basándose en el conocimiento del proceso y soportado por conceptos técnicocientíficos (historia del proceso, publicaciones de importancia conocida, valores disponibles). Obviamente una vez aplicada a una determinada operación, deberían reducirse la Severidad y Probabilidad y aumentar la Detectabilidad. Normalmente el proceso consiste sintéticamente en Determinar el Riesgo posible, establecer el índice, analizar sus posibles causas, decidir qué parte del proceso se debe considerar, aplicar y observar la posible disminución del índice. Esto se completa con el seguimiento y la medición de la tendencia. Para desarrollar el sistema se cuenta con una serie de herramientas como HACCP, FEMEA, FEMECA, FTA, etc., que utilizadas en forma aislada o por la reunión de alguna de ellas permiten sistematizar el proceso. Naturalmente todo análisis debe llevarse a cabo a través de un equipo multidisciplinario donde participen todos los sectores de la empresa. Es imprescindible además determinar el riesgo residual que se origina por la aplicación de esta gestión. En el curso desarrollado se analizaron los conceptos mencionados en los párrafos anteriores y se efectuaron a modo de taller una serie de ejercicios sobre problemas reales de la Industria surgidos de auditorías técnicas o aportados por los asistentes. n Cuestiones Bioéticas en torno a las Adicciones A continuación algunas ideas recientes de dos importantes especialistas de nuestro país con respecto a este tema: proceso más amplio de empobrecimiento y deterioro del funcionamientos y capacidades que afectan la libertad de elección de una vida digna. Dra. Cristina Pecci, Socióloga, Dra. en Psicología, UB; Jefe de la Sección Calidad de vida relacionada con la salud, Departamento de Salud Mental, Hospital de Clínicas, Universidad de Buenos Aires. -Consumo de sustancias psicoactivas: Es ante todo un comportamiento social resultante de un conjunto de fuerzas relacionadas a la exposición y a la vulnerabilidad. Esta interacción de fuerzas da lugar a diferentes modos de relación, desde el consumo hasta la adicción. Se tiende a focalizar el problema en la dependencia o “adicción” y a reducir el fenómeno a este segmento. Sin embargo, de acuerdo a la Clasificación Internacional de Enfermedades (CIE-10) de la OMS, hay evidencia de consumo perjudicial cuando el consumo de una sustancia ha causado daño somático por alteraciones psicológicas, incluyendo la alteración del juicio o de la conducta, que podrían llevar a discapacidad 24 Dra. Prof. Graciela Damilano, Dra. en Medicina, Jefe de la Sección de Pediatría de la Conducta y el Desarrollo, Departamento de Pediatría, CEMIC. - Mitos y Verdades. Mitos: Las personas adictas eran moralmente erróneas y carentes de fuerza de voluntad o tener consecuencias en las relaciones interpersonales. -Las sustancias psicoactivas amenazan las posibilidades de llevar adelante una vida con calidad. [...] El consumo de sustancias psicoactivas tiene impacto en la salud y no implica solamente la presencia de un trastorno y de riesgos graves en sí mismos sino que además supone un - Consecuencias: La respuesta de la sociedad era tratar el abuso de drogas, como un defecto moral en lugar de un problema de salud, lo que llevó a un énfasis en las acciones punitivas en lugar de preventivas y terapéuticas. - Verdad: La adicción es una enfermedad que afecta la arquitectura cerebral, y por lo tanto la conducta, alterando los procesos normales de aprendizaje, motivación, memoria y el control inhibitorio: Circuito Límbico.n PRIMERA Edición del Curso de Posgrado en Biotecnología Farmacéutica Publicado el : 01-05-2013 en ARGEN BIO Durante el mes de mayo comienza en Buenos Aires con una modalidad de cursada presencial teórico-práctica. Se dictará en la Universidad Argentina de la Empresa y la Universidad de Belgrano. El curso consta de clases teóricas, clases prácticas (un total de 5) y visitas a empresas farmacéuticas con perfil biotecnológico. Las clases partirán desde los conocimientos más elementales de biología molecular hasta la aplicación de los mismos en el área biofarmacéutica. Para tal fin, se han contactado docentes que puedan impartir los fundamentos del tema y docentes que están directamente involucrados en producción. El curso también va a contar con dos expertos extranjeros: el Dr. Robert Sindelar, de la University of British Columbia (Vancouver, Canadá), que es un pionero en la enseñanza de biotecnología farmacéutica a nivel mundial, y el Dr. Alejandro Ricciardi del Instituto Pasteur de Uruguay, experto en análisis de productos biológicos. El curso está organizado en 5 módulos que abarcan 5 áreas generales. Los alumnos pueden optar por realizar el curso en su totalidad, o seleccionar los módulos más apropiados de acuerdo a sus conocimientos. La coordinación del Curso está a cargo de la Dra. Sandra Pitta-Álvarez, PhD Farmacéutica, Lic. en Industrias Bioquímico Farmacéuticas y Doctora de la Universidad de Buenos Aires, con especialización en Biotecnología Vegetal. 26 Modalidad de cursada: Viernes de 18 a 21 hs en Universidad de Belgrano. Sábados de 9 a 12 hs en Universidad Argentina de la Empresa. Duración: 158 hrs (6 meses) Inicio: Mayo Finalización: Noviembre Información adicional: 4000-7666. Mayo UADE n Gestión del Conocimiento y de la empresa Quick Response Manufacturing (QRM) Un paradigma emergente para la manufactura en Operaciones Farmacéuticas Martín Dobovšek Como consecuencia de la revolución industrial y principalmente a partir de la Segunda Guerra, el mundo ha visto aparecer sucesivas concepciones sistémicas relacionadas en cómo implementar la manufactura de productos, y en las últimas décadas, también de servicios. Siendo Estados Unidos uno de los países envueltos en la Segunda Guerra Mundial pero que pudo mantener intacta su estructura industrial, la posguerra le brindó un mercado inagotable para sus productos. El énfasis estaba en la masa. La calidad y la eficiencia no era necesariamente una prioridad. Recién en la década del 80, como consecuencia de la concepción industrial japonesa (Deming), comienzan a replantearse los paradigmas de posguerra. Aparecen los énfasis en la calidad, productividad, diseño y se crea una variada gama de tecnologías, herramientas de calidad y de procesos que permitieron desplegar esas concepciones en la manufactura. Siendo Operaciones un área clave para toda organización que provea un producto a un mercado, y siendo éste la principal razón de la existencia de esa organización siempre es imprescindible adaptar los procesos de manufactura a los cambios que se evidencian en los contextos y entornos. En la década del 80, la variabilidad de los procesos fue el foco de la gestión en manufactura. Y Six Sigma y en alguna medida más tarde Lean Manufacturing con su gestión de mudas marcaron la tendencia en operaciones en los últimos años. No obstante, no proporcionaban una solución satisfactoria a ciertas estructuras de negocio donde • las demandas son variables, • existe un elevado mix de productos y • los volúmenes de producción son bajos sumados a la utilización de tecnologías complejas en los procesos. Es así ahí donde Quick Response Manufacturing (QRM) intenta presentar una alternativa práctica. Se trata de una metodología de manufactura diseñada por el Profesor Rajan Suri de la Universidad de Wisconsin. En su libro “Quik Response Manufacturing: A Companywide Approach to Reducing Lead Times”, 1998, describe detalladamente su modelo y cómo implementarlo en manufactura. La premisa fundamental es la gestión y disminución drástica de los Lead Times productivos. Por eso, esta característica hace particularmente interesante al QRM en situaciones de negocio, como comentábamos más arriba, donde las demandas son variables, el mix de productos es elevado, el volumen es bajo y la tecnología o complejidad de los mismos es intensiva. El QRM genera sustanciales beneficios sólo en organizaciones donde los clientes tanto internos como externos valoran Lead Times cortos por sobre otras variables del negocio (ej. costos, utilización de equipos, inventarios). No es que no se consideran, sino que quedan relegadas en los criterios de decisión, obviamente manteniendo la eficiencia económica de la organización. El QRM utiliza la dinámica de los sistemas para el análisis de la manufactura. La mayoría de las compañías prioriza la medida de la performance de la manufactura en el suministro tiempo (on-time delivery). Asimismo, también hacen énfasis en la utilización eficiente de recursos a través de su plena capacidad de funcionamiento. Equipos funcionando a plena capacidad tienden a significativas colas aguas arriba lo que incrementa los Lead Times. Si esta situación se mantiene en una organización, es inevitable el incremento necesario de inventarios y de los Lead Times de esos productos. 28 La implementación del QRM implica importantes cambios estructurales y, más que nada, conceptuales en una organización. Al focalizar solamente en los Lead Times como impulsor, la estructura de producción se organiza en células más que en centros funcionales. El siguiente paso es modificar el tamaño de los lotes a valores que minimicen sus Lead Times. Continúa luego la implementación de un sistema de control de producción denominado por Suri, POLCA (Paired-cell Overlapping Loops of Cards with Authorization) que gestiona el flujo de productos en la planta y funciona debajo del paraguas MRP existente en la organización. Sucintamente, sus principios fundamentales (entre otros, que escapan al análisis de este artículo) son: • No operar con recursos a plena capacidad (personal, equipamiento): la experiencia indica que las ocupaciones de recursos deberían rondar el 70 / 80% a fin de adaptarse a las variabilidades del sistema y del mercado. • No focalizar exclusivamente en la eficiencia del equipamiento para reducir el Lead Time; por el contrario, monitorear la reducción del Lead Time y transformarlo en una medida de performance e impulsor de modificaciones en el equipamiento • No enfatizar la organización demasiado en el “suministro a tiempo” (on-time delivery): las sobreutilización permanente de los recursos afecta negativamente la reducción del Lead Time. Por el contrario, el monitoreo del Lead Time y sus mejoras impactarán para lograr el “suministro a tiempo” deseado a través de las modificaciones que se implementen como consecuencia de ese monitoreo. 30 El POLCA es un sistema de control de producción tipo pull que combina elementos del Kanban, CONWIP y MRP. En la práctica, consiste en tarjetas similares a las utilizadas en Kanban pero para pares de celdas o centros de trabajo. Esto le confiere mayor flexibilidad ya que los productos pueden tomar distintas rutas en la manufactura (a diferencia del Kanban). El número de tarjetas es finito limitando así el inventario en el sistema como el CONWIP. Para iniciar un determinado proceso productivo, una tarjeta debe estar disponible y el trabajo estar autorizado por el sistema MRP (esto le confiere el link a la estructura de la organización y a la programación macro). Esta autorización se incluye, entre otras razones, para asegurar que un producto muy adelantado a su cronograma no bloquee un proceso. Una orden a tiempo cercana no será bloqueada por productos adelantados a su cronograma. El sistema permite combinaciones Push y Pull de acuerdo a particularidades de la manufactura con lo cual permite aún más flexibilidad en la concepción (recordemos que los sistemas productivos Pull son los favoritos en la actualidad dada la disminución de inventarios consecuente). La implementación del QRM en la industria farmacéutica recién está comenzando. Existen algunos casos exitosos lo que indicaría que se trata de una alternativa interesante en el momento de definir la estructura de la organización. Ya finalizando, y como todo principio estratégico fundamental, la estructura debe estar siempre subordinada la estrategia y nunca a la inversa. Como decía mi profesor: invertir esta relación nunca queda impune.n LA COLUMNA CROMATOGRÁFICA ESTABLECIMIENTO DE PARÁMETROS DE VALIDACIÓN PARA PROCEDIMIENTOS DE REFERENCIA ACEPTABLES Oscar Quattrocchi Nota: este artículo fue escrito bajo la entera responsabilidad del autor, y no constituye necesariamente una recomendación o posición formal de la USP como así tampoco compromete a la USP respecto de los puntos de vista indicados. Este artículo se publicará en dos entregas, desarrollando en la segunda parte el tema central, pero necesariamente presentado por esta introducción al tema, que muestra el entorno, las falencias en algunas de las normas vigentes en relación a la ciencia actual, y una breve reseña de lo que puede hacerse, y lo que en determinados terrenos está haciéndose para mejorar el estándar de calidad, adecuándolo a las necesidades de lograr un medicamento de calidad, seguridad y eficacia, pero también teniendo en cuenta las posibilidades económicas y regionales. Esta perspectiva responde a un punto de vista adoptado por la USP, que puede ser discutido pero que comparto y quiero compartir, en el primer caso por el conocimiento adquirido a través de décadas de trabajo en la industria farmacéutica, por la participación durante varios años y actualmente en diversos comités de expertos de la USP, y por la convicción de que es necesario modernizar estándares que funcionaron oportunamente, pero que deben evolucionar y mejorar conjuntamente con la modernización de la ciencia y la técnica. La USP se ha caracterizado por la creación y mantenimiento de estándares de calidad en la producción, control y distribución de medicamentos desde hace casi 200 años. Conservo en mi biblioteca una copia de la primera edición de la USP, firmada en enero de 1820 y que me fuera obsequiada en mi papel de Observador durante la Convención de la USP en el año 2005. No abundaré en detalles acerca del reconocimiento de la USP en todo el mundo, pero es hoy claro que si bien su función original ha sido la excelencia en los medicamentos dentro de EE.UU., su creación ha trasvasado claramente sus fronteras y hoy constituyen una fuente de referencia altamente reconocida en el mercado global. Este escenario se ve asimismo complicado por efectos convergentes y propios de la sociedad actual. No sólo se trata de calidad de producción, sino 32 se agregan complicaciones por materiales que compiten reduciendo costos y precios a expensas de calidad sub-estándar, adulteración, falsificación y contrabando. En un mundo cambiante, la técnica debe adaptarse en función de la ciencia, y el objetivo debe centrarse no sólo en mantener sino también en mejorar los estándares de calidad. En función de lo antedicho, es claro que los objetivos deben evolucionar, pero el inconveniente es el choque con costumbres establecidas y con prejuicios. En un momento determinado se crea un estándar, que responde a los criterios contemporáneos de calidad. El estándar funciona, se implementa y consolida, pero al cabo de los años el sponsor de ese producto desaparece, o deja de interesarse en ese producto porque otros son más atractivos económicamente. El tiempo pasa, el estándar queda y se conserva como válido. Pero en la misma línea de tiempo ocurren otros hechos relevantes que pueden afectar la globalidad de ese estándar y, a pesar de factores que demandan su modernización, quedan allí, incólumes. Casos de reciente repercusión deberían encender luces de alerta. Por ejemplo los recientes casos por toxicidad de melamina, dietilenglicol y la genotoxicidaddel metansulfonato de etilo entre los más relevantes. Pero el estándar sigue allí, su método de análisis y sus criterios de aceptación sin cambio, a menos de que un accidente ocurra. Desde el punto de vista económico, si todo está bien, ¿por qué cambiarlo? El resultado de todo esto se traduce en viejos estándares para nuevos productos, falta de regulación en muchos países, sea por falta de farmacopea o por desactualización de las vigentes. En este momento en la USP, se estima que aproximadamente un 50% de las monografías está ausente (productos no incluidos) o necesita actualización. Entonces debería surgir una pregunta: si los métodos deben cambiar, ¿por qué no se hace?¿Quién debe hacerlo?, y con frecuencia miramos alrededor esperando que alguien tome la iniciativa, pero a veces esto no ocurre. La USP y la FDA invierten grandes esfuerzos en modernizar las monografías, pero esa tarea no siempre puede ser cumplida. Entonces, para una vieja monografía para la cual necesitamos emplear nuevos procedimientos, ¿cuáles deberían ser los criterios de calidad?¿Cuáles deben ser sus criterios de aceptación? Desde mi punto de vista, es un hecho elogiable que la USP haya tomado el liderazgo en este camino, y lo ha hecho en un sentido francamente global. Instaladas tres sedes fundamentales en Asia del Este (con sede en China y dedicada a excipientes), Asia del Sur (con sede en India) y Latinoamérica (con sede en Brasil, los dos últimos abocados a ingredientes activos y medicamentos), cada una de esas sedes se transformó en un centro regional de actualización, para establecer los procedimientos analíticos y los criterios de aceptación para los medicamentos que, o bien no se comercializan en EE.UU.por razones de impacto regional (por ejemplo para el tratamiento de la malaria, Chagas, etc.) o bien necesitan imperiosamente un proceso de actualización. El producto de este objetivo es el USP Medicines Compendium, un compendio de norma públicas que incluye principios activos, excipientes y productos farmacéuticos de naturaleza química y biológica, y se distribuye globalmente en forma gratuita a través de su sitio web, http://www.mc.usp.org y http://www. usp.org/ (sección AroundtheWorld). Si bien las normas se presentan en inglés, pueden traducirse a cualquier otro idioma y utilizarse/ publicarse sin previa solicitud de permiso. Los reglamentos para la creación de estas monografías así como los capítulos generales de forma también son de acceso público y gratuito, y resultan básicamente en las monografías basadas en performance. La creación y aprobación de estos estándares sigue los reglamentos establecidos para los Comités de Expertos de la USP, los que pueden requerir en casos puntuales del apoyo de Paneles de Expertos que son creados para esa única función. El tema específico que nos ocupa en esta columna es precisamente el enfoque que toma el MC para la creación de las Monografías Basadas en Performance (PBM, por sus siglas en inglés), el cual provee pruebas para atributos de calidad críticos y criterios de aceptación, sin describir necesariamente un procedimiento paso-a-paso. En lugar de ello, el MC brinda criterios para un procedimiento aceptable y de esta forma, la información que la industria y demás usuarios necesitan para crear sus propios procedimientos aceptables. El MC incorpora además los Procedimientos de Referencia creados en laboratorios de la USP. Estos procedimientos pueden usarse para controlar artículos de fuentes variadas. Los procedimientos de referencia son desarrolladas por el plantel de la USP, con la colaboración de donantes de información y materiales o incluso procedimientos propios del donante. Finalmente, los estándares de MC no son mandatorios. Se basan en el aporte volunta- rio para ser adoptados por cualquiera de las partes, aunque pueden convertirse en mandatorios cuando se incorporan a un registro regulatorio, o si una agencia regulatoria los reconoce como tal. Puede incluso haber una superposición con un método codificado en la USP cuando ante la necesidad de crear una monografía para un producto no codificado, debe comenzarse por el ingrediente activo, creándose así un estándar para un producto ya existente en la USP. Es intención y deseo de la USP que en instancias finales, será beneficiaria de la aproximación innovadora propiciada por MC, tal vez comenzando por los excipientes, pero cuando ello ocurra probablemente deberá ser a través del US Pharmacopeial Forum, la publicación bimensual para conocimiento y comentario público. Una consecuencia natural del desarrollo del MC sería el fortalecimiento de los estándares compendiales de la USP, incluyendo en ocasiones las monografías de USP y NF, así como los de otras farmacopeas. Los criterios para la validación y el establecimiento de los parámetros de validación para los procedimientos de referencia aceptables fueron discutidos en el foro de la USP, capítulo <1010>, y si bien no fueron aún implementados en la USP, lo fueron en el MC en su capí- tulo <10>, incluyendo criterios de aceptación para las pruebas de precisión, exactitud, linealidad y rango para impurezas relacionadas y valoración. Cabe resaltar la adopción de la ecuación de Horwitz, relevante en otros campos de la ciencia donde se acepta justificadamente para establecer criterios de aceptación en la evaluación de trazas.n La Columna Cromatográfica le agradece al autor: Dr. Oscar Alberto Quattrocchi Gerente de Capacitación y Asesoramiento Analítico de D’Amico Sistemas S.A. Miembro del comité de Expertos para los Capítulos Generales de la USP, Análisis Químico. Chair del Panel de Expertos de la USP para Solventes Residuales. Miembro del comité de Expertos para el Medicines Compendium para Latinoamérica y el Caribe. Miembro del Panel de Expertos de la USP en Español. Ante cualquier inquietud por este artículo remitir la correspondencia al Dr. Oscar Alberto Quatrocchi. E-mail: [email protected] Información de Interés Métodos de Disolución de la FDA La página de la FDA lista principalmente los siguientes métodos de disolución correspondientes a una lista de casi 1000 productos: • I cesto rotativo • II paletas • III cilindro reciprocicante • IV Celda de flujo continuo • V Paleta-sobre-disco • VI Cilindro • VII Soporte reciprocicante • Equipos para masticables Farmacopea Europea (ver Figura) • Agitador-incubadora El enlace a la página de la FDA para consultar la lista de productos involucrados es la siguiente: http://www.accessdata.fda.gov/scripts/cder/ dissolution/dsp_searchresults_dissolutions. cfm?printall=1 n 34 Aparato para medición de la disolución de masticables de Wennergren: reproducido de fuente pública disponible www.fia.se LA COLUMNA DE GARANTÍA DE CALIDAD MODIFICACIONES EN LAS BUENAS PRÁCTICAS DE FABRICACIÓN DE LA PIC (Pharmaceutical Inspection Convention) PE 009-10 Dr. Néstor Oscar Aversa (Parte I) Teniendo en cuenta que nuestro país es miembro de la PIC desde Enero 2008, los cambios y actualizaciones que dicha organización realiza, impactan directamente en las inspecciones regulatorias que la ANMAT realiza a los laboratorios de especialidades medicinales. Baste mencionar que determinados cambios operados en la manufactura de productos estériles (como por ej. el monitoreo continuo de partículas) son aplicados sin estar incluidos en las disp. 2819/2004 o 2372/2008. En el cuerpo de la norma el único capítulo que ha sido actualizado con respecto a la versión anterior es el número 4, Documentación, cuyas principales cambios son detallados a continuación y comentados en recuadros.. En la introducción se destaca a la documentación como parte esencial del sistema de Garantía de Calidad y fundamental para el cumplimiento de requisitos de buenas prácticas de fabricación (GMP). El sistema de gestión de calidad debe definir con claridad el tipo de documentos y medios usados. Explicita que la documentación puede existir en formato de papel, electrónico o fotográfico. El principal objetivo del sistema de documentación debe ser establecer, controlar, monitorear y registrar todas las actividades que directa o indirectamente impactan sobre todos los aspectos de la calidad de productos farmacéuticos. Las instrucciones deben contener suficiente detalle como para comprender y cumplir los requisitos. Define dos tipos fundamentales de documentos para gestionar el cumplimiento GMP: Instrucciones y Registros/Informes. Las instrucciones deberían estar libre de errores y por escrito, entendiéndose por “escrito” a la documentación sobre medios de los que puedan obtenerse en forma leíble, exacta y manteniendo su integridad. Esta introducción ha ampliado sustancialmente la información existente en la versión anterior. Se destaca particularmente la variedad de formas por las que la documentación puede ser almacenada así como los detalles que debe poseer la misma a los efectos de su fácil comprensión y monitoreo permanente de su cumplimiento. La documentación GMP requerida por tipo es la siguiente: • Archivo Maestro de Sitio (Site Master File): Documento que describe las actividades relacionadas con GMP por parte del fabricante. La ANMAT informó en reunión pública del 9 de Octubre 2012 el carácter de man- 35 datorio de la confección del Site Master File, inspirado en la guía PIC PE 008-4 EXPLANATORY NOTES FOR PHARMACEUTICAL MANUFACTURERS ON THE PREPARATION OF A SITE MASTER FILE del 2011. La ANMAT a Mayo 2013 aún no ha emitido la disposición de entrada en vigencia sobre la obligatoriedad de su confección. - Instrucciones: Comprende lo siguiente: •Especificaciones: Describen en detalle los requisitos que deben cumplir lo materiales y productos usados u obtenidos en la manufactura. Son usadas como base de comparación para evaluar la calidad. •Fórmulas de Manufactura, Fabricación, Acondicionamiento e Instrucciones de Ensayo: Brindan el detalle de todos los materiales, equipamiento y sistemas computarizados (de existir) a ser usados así como todas las instrucciones de muestreo y controles de proceso off line y on line (PAT: Process Analytical Technology) con sus correspondientes criterios de aceptación. • Procedimientos (SOPs): Brindan las instrucciones para realizar cierto tipo de operaciones. •Protocolos: Brindan las instrucciones para realizar y registrar ciertas operaciones discretas. • Acuerdos Técnicos: Son los acuerdos relativos a la tercerización de actividades. •Registros/Informes: Brindan la evidencia de diversas acciones tomadas para demostrar el cumplimiento de las instrucciones, y en el caso de la manufactura de productos una historia de cada lote de producto, incluyendo su distribución. Los registros incluyen los datos crudos que se usan para generar otros registros. Para registros electrónicos, los usuarios debieran definir cuales datos serán usados como datos crudos. Dentro de este contexto, al menos los datos sobre los que se toman decisiones de calidad debieran considerarse como datos crudos. • Certificados de análisis: Proveen un resumen de los resultados de los análisis efectuados sobre muestras de productos o materiales, junto con la evaluación del cumplimiento o no frente a una especificación. Los datos contenidos pueden obtenerse total o parcialmente sobre datos en tiempo real (PAT) según la monografía aprobada por la autoridad sanitaria. •Informes: Documenta el resultado de proyectos, investigaciones o ejercicios junto con resultados, conclusiones y recomendaciones. Es importante destacar en esta sección la incorporación de criterios de aceptación para controles en proceso y los relativos a PAT (Process Analytical Technology). Se amplía el concepto de registros incluyendo 36 como tales a la distribución de lotes y la necesidad de definir claramente a qué se considerará dato crudo incluso para registros electrónicos. En la Generación y control de la documentación se aclara que los requisitos son independientes del modo de documentarlos. Las relaciones entre documentos ya sea electrónicos, papel o híbridos deben ser establecidas así como el uso de plantillas y documentos maestros. La integridad de los registros debe mantenerse a través del periodo de retención. La reproducción de documentos de trabajo a partir de documentos maestros no debiera permitir ningún error a ser introducido durante el proceso de reproducción. Los documentos conteniendo instrucciones debieran ser aprobados, firmados y fechados. Su contenido no debe ser ambiguo, descriptos en el orden de ejecución y fáciles de ser chequeados. Los SOP e instrucciones de trabajo deberían estar escritos en modo imperativo. Se describe un nuevo sub-ítem dentro del capítulo dedicado a Buenas Prácticas de Documentación: • Las entradas manuales deberían ser hechas en forma legible, clara e indeleble. • Los registros debieran ser hechos o completados en el momento en que las acciones son tomadas y de tal forma que todas las actividades relacionadas con la manufactura de productos farmacéuticos permita la trazabilidad. La política de enmiendas no sufre cambios con respecto a la versión anterior (la modificación debiera estar firmada y fechada, la enmienda debiera permitir la lectura de la información original y cuando sea apropiado debe registrarse la razón de la enmienda). En lo relativo a Retención de Documentos debe establecerse claramente qué registros están relacionados con las actividades de manufactura y donde se hallan localizados. Deben tomarse medidas de seguridad para asegurar la integridad de los registros a través de periodos de retención y su validación cuando sea apropiado. La documentación debe mantenerse hasta un año después de la fecha de expiración del lote o al menos 5 años desde que el lote fue dictaminado, el que sea mayor. Para productos de investigación clínica, la documentación de lotes debe mantenerse al menos 5 años después de completado o del último ensayo clínico realizado donde el lote haya sido usado. Pueden determinarse periodos adicionales mayores para cierto tipo de documentos. menos que dichos datos hayan sido reemplazados por otros nuevos. Sin embargo, dichos datos no podrían ser reemplazados mientras esté vigente la documentación de lotes relativos a esa validación o estabilidad originales. Este nuevo requisito formalmente establecido también puede incidir en la gestión de archivo de documentación. Con respecto a la fórmula maestra y procesos (fabricación y acondicionamiento) los cambios más importantes son relativos a formalizar en la documentación los controles tendientes a demostrar que los equipos y lugares de trabajo están libres de productos previos y sus respectivas documentaciones, que los equipos están limpios y listos para ser usados. Las instrucciones deben ser detalladas y secuenciadas. La reconciliación electrónica de materiales en la medida que sea robusta puede obviar la cantidad de materiales entregados, usados, devueltos o destruidos. Se destaca la importancia de disponer de instrucciones escritas para la certificación de lote para la venta. El cambio más importante radica en que cuando un proceso validado sea continuamente monitoreado y controlado, los informes generados pueden limitarse solamente a resúmenes de cumplimiento y de fuera de especificación (OOS). Finalmente se destaca la necesidad de tener políticas, protocolos, informes y registros para: • Procesos de calificación y validación, equipos y sistemas. • Calibración de instrumentos. • Transferencia de tecnología. • Mantenimiento, Limpieza y Sanitización. • Listado de firmas de personal, capacitación en GMP y aspectos técnicos y verificación de la efectividad del entrenamiento. • Monitoreo ambiental. • Control de roedores. • Reclamos. • Retiros de Mercado. • Devoluciones. • Control de Cambios. • Investigación de no-conformidades y desvío. • Auto-inspecciones y auditorías de cumplimiento. • Revisión de calidad de productos. • Auditorías de proveedores. Habrá que estar alerta si la autoridad sanitaria argentina modifica la política actual pues puede incidir en forma significativa en los espacios físicos o virtuales necesarios para cumplir dicho requisito. Si bien estos puntos mencionados precedentemente están disponibles habitualmente como parte del sistema de documentación, se les pide en esta nueva versión un alineamiento similar al exigido por las guías ISO de la serie 9000, es decir la documentación alineada como cascada. Finalmente debería mantenerse un inventario de documentos dentro del sistema de gestión de calidad. Los datos crudos relativos a estabilidad o validaciones deberían ser mantenidos mientras la autorización de comercialización esté vigente a En el próximo número se detallarán las actualizaciones que la guía PIC ha realizado en determinados anexos.n LA COLUMNA DE LOS INGREDIENTES FARMACÉUTICOS ACTIVOS Y EXCIPIENTES Nuevas normas de buenas prácticas de fabricación para excipientes farmacéuticos Subcomisión de Materias Primas Farmacéuticas n Comité de Expertos en Materias Primas Farmacéuticas La difusión de la guía de buenas prácticas de fabricación para excipientes de IPEC1 comienza a dar frutos en Latinoamérica y otros mercados emergentes. IPEC (International Pharmaceutical Excipients Council)2 es una organización sin fines de lucro que nuclea a profesionales de la industria farmacéutica, fabricantes de excipientes y distribuidores para tratar temas relacionados con excipientes farmacéuticos. Desde allí se discuten temas de actualidad y se desarrollan guías para armonizar y optimizar el manejo de excipientes con la participación de todos los actores de la industria. n Situación de los Excipientes en China: Cuando hablamos de excipientes farmacéuticos, China se ha convertido en uno de los principales proveedores en el mundo (junto con India), con lo cual se constituye como un país estratégico en donde estandarizar las buenas prácticas de fabricación, ya que asegurar la calidad de estos excipientes tiene un impacto positivo en la industria farmacéutica a nivel mundial. Con esto presente, IPEC China comenzó a trabajar con la autoridad sanitaria local, la CFDA (China Food and Drug Administration), para formalizar las buenas prácticas de fabricación de excipientes farmacéuticos en el país. Como fruto de esto, el 4 junio 2012 la CFDA emitió un borrador para comentarios (durante 4 días) de una regulación relacionada con reforzar la supervisión de los excipientes farmacéuticos en el país. La regulación enfatiza el rol de la industria farmacéutica en el control e inspección de los fabricantes de excipientes que son utilizados en la fabricación de sus medicamentos, aunque en algunos aspectos definen requerimientos más rigurosos que los detallados por IPEC. La versión en inglés de la norma propuesta se encuentra disponible en la página web de IPEC3. Esta norma crea un sistema de clasificación de excipientes que separa excipientes no- 38 vedosos o con alto riesgo de seguridad de aquellos que no lo son. Exige un sistema de pre-aprobación mediante documentos similares a los DMFs para los primeros, mientras que maneja un sistema de registro para los segundos. Estos sistemas tienen requerimientos de documentación e inspección diferentes que aún no fueron claramente definidos y se espera la publicación de un listado que identifique claramente qué excipientes se incluyen dentro de cada categoría. La falta de precisión en este punto genera algo de confusión en la industria mientras se espera la reglamentación de la norma, ya que al momento de la su publicación, este listado de excipientes no se encontraba disponible. Por otro lado la nueva normativa tiene elementos compartidos con FDASIA4 (Food and Drug Administration Safety and Innovation Act), aprobada por el Congreso de Estados Unidos en Julio de 2012. Uno de ellos es el requerimiento a los fabricantes de medicamentos de la presentación de un listado de excipientes, sus fabricantes y especificaciones. Va más allá aún, al solicitar a cada fabricante de excipientes que se incluyan también los resultados de las inspecciones. Este listado debe ser enviado junto con el registro de los medicamentos. Al exigir la publicación del resultado de las auditorías a fabricantes de excipientes, la norma espera establecer un mecanismo de generación de credibilidad, otorgando créditos a los fabricantes de excipientes que puedan ser utilizados por la industria farmacéutica como referencia en el proceso de selección de un fabricante. Finalmente la norma avanza sobre el concepto de QbD (Calidad por Diseño) asociado a los excipientes, sobre el cual también está trabajando la Oficina de Drogas Genéricas en Estados Unidos (OGD por sus siglas en inglés). En ese sentido, requiere a los fabricantes de medicamentos la presentación de estudios que justifiquen el cambio de un excipiente o fabricante de excipientes. Estos estudios deben incluir una evaluación del impacto en el producto, el que debe ser aprobado por la autoridad sanitaria antes de poder imple- mentarse. Queda claro que los fabricantes de medicamentos siguen siendo la prioridad de la autoridad sanitaria China, y hay dudas de que la CFDA tenga recursos para el control requerido para los excipientes5. Esto se realiza de manera simultánea con un anuncio del Comité de Farmacopea China, que se compromete a aumentar el número de excipientes en la Farmacopea China, que actualmente posee 130, a 381 para el año 20156. n Situación de los Excipientes en Latinoamérica Desde su sede de IPEC Americas7, a partir del año 2009 y a través del Dr. David Schoneker* como representante, IPEC fue contactando a diferentes entes de referencia en Latinoamérica para difundir el trabajo realizado y brindar charlas de capacitación relacionadas con la actualidad de los excipientes farmacéuticos y sus principales desafíos. Debido a la escasa cantidad de normativas formales relacionadas con este tema en el mundo, y donde Latinoamérica no es la excepción, estas iniciativas fueron bienvenidas en toda la región, lo que llevó a la firma de un acuerdo de cooperación con Sindusfarma en Brasil en el año 2009, y otro con Safybi en nuestro país, en el año 2010. Actualmente se encuentra en tratativas la firma de un acuerdo similar con Canifarma en México. De la misma manera que con China, IPEC Americas se reunió con ANVISA, a partir del interés de la agencia sanitaria en el desarrollo de normativas relacionadas con excipientes. Como fruto de estas reuniones y el material provisto, ANVISA publicó un borrador de una normativa de buenas prácticas de fabricación para excipientes farmacéuticos en Mayo 2012, con un plazo inicial para comentarios hasta agosto 2012, que luego se extendió por 60 días más. IPEC Americas participó de esta consulta pública enviando sus comentarios en el mes de Julio 2012, los cuales fueron tomados en cuenta luego de algunas reuniones y aclaraciones entre las partes. No se publicarán nuevos borradores, y se espera que la versión final de la volanta titulo titulo titulo copete 39 normativa sea puesta en vigencia entre el 2013 y 2014. Entre las principales consecuencias de la normativa propuesta, se encuentra el requerimiento de que todos los fabricantes de excipientes farmacéuticos para el mercado brasilero deberán ser auditados por ANVISA para obtener una licencia que les permita operar en esta industria. Para ello, deberán demostrar que trabajan en un entrono de buenas prácticas de fabricación, poseen un sistema de calidad adecuado y que las instalaciones no se utilizan para fabricar ingredientes activos. En este contexto, se le darán 12 meses para adecuarse a los fabricantes que posean instalaciones más antiguas, exigiendo el cumplimiento inmediato a los fabricantes con plantas nuevas. A partir de la firma del acuerdo en Argentina, IPEC Americas desarrolló varias capacitaciones en Safybi, y supervisó la traducción al español de guías de IPEC para su difusión local, trabajo que es realizado desde Safybi por el Comité de Expertos en Materias Primas Farmacéuticas. En este momento se encuentran disponibles en español las Guías de Buenas Prácticas de Fabricación y de Buenas Prácticas de Distribución para Excipientes Farmacéuticos8 de IPEC en la página web de Safybi, y los socios pueden solicitar una copia en papel si así lo desean. IPEC está trabajando sobre el concepto de Control Total de Excipientes (TEC por sus siglas en inglés) que fue comentado durante el workshop del Dr. David Schoneker a Safybi en Agosto del 2012. El mismo abarca varios de estos aspectos para seguir avanzando en la generación de guías cubriendo aspectos y controles necesarios desde el diseño de un excipiente y su fabricación hasta el consumo del mismo como parte de un medicamento. Si bien la industria farmacéutica convivió durante años sin reglamentación formal para los excipientes, las guías de IPEC generaron un marco de trabajo a ser adoptado por fabrican- tes y usuarios de los mismos, que de a poco comienza a verse reflejado en reglamentaciones en diferentes países del mundo. Ante el impacto que estas nuevas reglamentaciones generan en las diferentes agencias sanitarias y en los mismos fabricantes de excipientes, es esperable que existan períodos de gracia para exigir el cumplimiento de las mismas. Es de vital importancia, sin embargo, para quienes producen excipientes destinados a la industria farmacéutica y para quienes desde la industria deben garantizar la calidad de los mismos, conocer las guías y evaluar qué medidas son necesarias para poder asegurar el cumplimiento y, en esencia, la seguridad de los medicamentos que son liberados al mercado. *David Schoneker es miembro del comité de IPEC Americas, fue Presidente y Vice-Presidente de la organización, y actualmente se desempeña como Director Global de Asuntos Regulatorios en Colorcon.n n Referencias 1-Guía de Buenas Prácticas de Fabricación para Excipientes Farmacéuticos – IPEC. Versión en español en http://www.safybi.org.ar/Traduccion-GUIA-IPECGMP-FINAL-%20SEP-11.pdf 2- IPEC Federation – http://www.ipecfed.org/ 3- Traducción al inglés de las regulaciones propuestas por SFDA en China: http:// ipecamericas.org/sites/default/files/SFDA_Regulation_of_Strengthening_Supervision_on_Pharmaceutical_Excipients_%20(Aug_1%2C2012)%20(1).pdf 4-http://www.fda.gov/RegulatoryInformation/Legislation/FederalFoodDrugandCosmeticActFDCAct/SignificantAmendmentstotheFDCAct/FDASIA/ 5-http://www.in-pharmatechnologist.com/Ingredients/China-Looks-toTighten-Excipient-Regulations-with-Limited-Resources 6- http://www.in-pharmatechnologist.com/Ingredients/SFDA-draft-excipientguidelines-place-quality-burden-on-pharmas 7- IPEC Américas - http://ipecamericas.org/ 8- Guía de Buenas Prácticas de Distribución para Excipientes Farmacéuticos – IPEC. Versión en español en http://www.safybi.org.ar/IPEC_BPD_Guia_2006_ espanol_Revision_Final.pdf Información de Interés Lista de excipientes de alto riesgo de la SFDA La SFDA (Chinese Food and Drug Administration) ha publicado una lista de 28 expientes que se consideran de alto riesgo y por lo tanto requerirán de una licencia de elaboración antes de que puedan ser usados en productos farmacéuticos. La lista completa es: 40 8 Colesterol 19 Gelatina 9 Lecitina (de yema de huevo) 20 Cápsulas de gelatina dura 10 Glicerol 21 Cápsulas de gelatina dura con cubierta entérica 11 Aceite de maíz refinado 22 Beta-ciclodextrina, hidroxipropil éteres (inyección) 1 Oleato de sodio 12 Ésteres de ácidos grasos de sorbitán polioxietileno 80 2 Propilenglicol 13 Polietilenglicol 400 3 Hialuronato sódico 14 Polietilenglicol 600 4 Poloxamer 15 Polietilenglicol 200 5 Aceite de camelia (para inyección) 16 Polietilenglicol 300 26 Copolímero de glicólido y láctido (25:75) 6 Lecitina de soja (para inyección) 17 Lecitina (inyección) 27 Ácido oleico 7 Aceite de Soja 18 Jarabe de Malta 28 Oleato de sodio 23 Lactosa 24 Lactosa anhidra 25 Etanol (para inyección) El rincón de la espectroscopía Determinación de impurezas inorgánicas en productos farmacéuticos Dr. Fernando Iñón Parte 1 Los nuevos capítulos USP 232 y 233, que reemplazan el USP 231, generan nuevas disposiciones para la determinación de impurezas elementales en productos farmacéuticos. Con esta nueva disposición se requiere la determinación de ciertos elementos en particular, normalmente referidos como metales pesados, lo que hace necesario realizar una preparación de la muestra en la cual la materia orgánica debe destruirse al fin de liberar y disolver en soluciones acuosas ácidas los elementos a determinar. Por tal motivo la velocidad y la exactitud del ensayo es fuertemente dependiente de esta etapa inicial, la cual es esencial para garantizar la seguridad y la calidad de los productos farmacéuticos que llegan al mercado. Así como los instrumentos espectroscópicos han mejorado y han reducido los límites de detección, también existen 41 avances en la tecnología de preparación de muestras para simplificar las técnicas y asegurar digestiones completas, particularmente aquellas basadas en procesos acelerados por microondas. La determinación de impurezas elementales en materias primas y productos farmacéuticos intermedios y terminados ha sido por años relativamente simplificada, puesto que no había una exigencia de identificar cada elemento (englobado en el término de metal pesado, expresado como plomo). Esta falencia es significativa, puesto que la toxicología asociada a cada elemento es muy diferente. Los nuevos capítulos USP 232 y 233 han revertido esta situación, debiéndose determinar la concentración de cada elemento traza y el límite a garantizar depende no solo del elemento sino también de la dosis (ingesta) esperada para el producto en cuestión. Por tal motivo la preparación de muestra es crucial ya que hay que garantizar la recuperación de cada elemento. Esto demanda de mejores técnicas analíticas y de menores límites de detección para los elementos de interés. La necesidad de análisis más avanzados para el control de los niveles de las impurezas elementales en productos farmacéuticos resulta crucial. Sin embargo, hay que tener en cuenta que esto lleva a los laboratorios a analizar cada vez más muestras y trabajar para lograr límites de detección más bajos que los que se consideraban adecuados en el pasado, pero los recursos con los que cuentan suelen ser limitantes. Las técnicas instrumentales determinativas a las que hacen referencia en estos capítulos son el plasma acoplado inductivamente con detección óptica (ICP OES) y aquel acoplado a espectrometría de masa (ICP-MS). La razón de la utilización de un plasma acoplado inductivamente como fuente de generación de la población atómica de los elementos no es casual, ya que está demostrado que elimina un gran número de interferencias de origen químico. La elección entre una detección óptica o a través de una espectro- 42 metría de masas se basa en la sensibilidad y el límite de detección requerido en función de la dosis del medicamento. Obviamente hay diferencias relacionadas en cuanto al costo de inversión, pero estas temáticas se abordarán en una próxima nota. Si bien los fabricantes de instrumentos como ICP OES ó ICP-MS han desarrollado plataformas más sofisticadas y fáciles de usar que permitan mejorar el rendimiento y realizar análisis simultáneos de múltiples elementos en períodos de tiempo más cortos, la (gran) mayoría de los productos a analizar necesitan alguna forma de preparación previa al análisis. En los análisis clásicos, la matriz orgánica se calcina (normalmente en un horno de mufla a una temperatura controlada) y el residuo inorgánico resultante es digerido en un ácido débil. Otro procedimiento también implica calentar la matriz orgánica en ácidos concentrados en una placa calefactora. En ambos casos, empero, se necesita demasiado tiempo y existe el riesgo de perder elementos volátiles. La llegada de los sistemas de preparación de muestras por microondas a mediados de la década de 1980 redujo significativamente los tiempos de digestión, pero los sistemas exigían organizar las matrices de muestra similares en lotes de entre 2 y 14 muestras. Esta necesidad de agrupar las muestras es importante, puede influir en el resultado analítico e impacta en la organización del trabajo y limita la cantidad de muestras por día que se podían procesar. A diferencia de otros mecanismos de calentamiento, el verdadero control del calentamiento por microondas es posible porque la aplicación de energía puede cesar efectiva e instantáneamente, deteniendo el calentamiento en el momento. La dirección del flujo de calor es en sentido inverso al del proceso tradicional, ya que las microondas son absorbidas por el contenido dentro del vaso, la energía se convierte en calor, y la temperatura del contenido sube. Durante el proceso de digestión de muestras de compuestos orgánicos se forman gases insolu- bles como el CO2. Estos gases combinados con la presión del vapor del solvente y del reactivo a la temperatura alcanzada producen la presión total dentro del vaso. El calor es trasmitido del reactivo y de la mezcla con el solvente a las paredes del vaso y disipado a través de conducción a la atmósfera que lo rodea. Para sacar ventaja de esta tecnología, se le han agregado mecanismos de control de temperatura a los primeros sistemas comerciales de digestión acelerada por microondas para utilizar completamente el encendido y apagado de la aplicación de energía. Los vasos de digestión acelerada por microondas evolucionaron de simples vasos capaces de soportar pequeñas presiones internas a los sistemas actuales para alta temperatura y alta presión. Fabricado en materiales químicamente inertes y transparentes a las microondas, y diseñados para ser livianos e increíblemente fuertes, estos vasos permiten a la energía de las microondas concentrarse en la mezcla de reactivo y brindan mejor control sobre la reacción. Esto significa que se puede digerir más cantidad de muestra a mayores temperaturas y menor presión de lo que normalmente se esperaría. No obstante las limitaciones de la presión máxima de trabajo del vaso aún restringe la cantidad de muestra que puede ser usada para alcanzar la temperatura de disolución y la máxima temperatura que puede ser alcanzada debido a la presión del vapor resultante de los reactivos. La resistencia a la presión y temperatura se han incrementado de las limitaciones comerciales originales de 160 ºC y 120 psi a los vasos avanzados de hoy en día capaces de realizar una digestión controlada a 240 ºC y 800 psi. Aunque pueden utilizarse altas temperaturas, los límites de presión todavía existen. Estos límites se deben a la naturaleza de los fluoropolímeros utilizados para el vaso interno y las superficies húmedas de los viales de presión. Materiales como el PTFE (conocido usualmente como Teflón®), que es extremadamente inerte químicamente hablando, posee una fuerza mecánica muy limitada. Por tal motivo se debe evitar el uso de este tipo de materiales a temperaturas elevadas cercanas al punto de flujo del polímetro. El uso de compuestos plásticos livianos permite a los materiales inertes humedecidos ser reforzados utilizando otros componentes. El poder de oxidación de minerales ácidos comunes, como el ácido nítrico, se incrementa significativamente a temperaturas de 80-100ºC sobre su punto de ebullición atmosférico. Para materiales orgánicos, la destrucción del carbono en sistemas de digestión acelerados por microondas puede realizarse solamente con ácido nítrico. Para lograr la misma eficiencia de digestión por métodos tradicionales se requiere el uso de oxidantes de alta temperatura tales como el ácido sulfúrico o el acido perclórico. Finalmente, luego del enfriamiento las muestras mineralizadas en sistemas acelerados por microondas son preparadas para el análisis mediante una dilución en una matriz de baja viscosidad. La mezcla resultante presenta así pocos efectos de matriz. La carga de trabajo que tiene cada laboratorio es diferente, puesto que se puede necesitar procesar varios lotes/muestras del mismo producto o pocas muestras de diferentes productos. Los programas de digestión dependen fuertemente de la matriz del producto, la cantidad de muestras a procesar al mismo tiempo así como de la masa de muestra que pesa. Por tal motivo, una de las primeras elecciones es saber si se está orientado para procesar en forma eficiente lotes grandes o tener flexibilidad para cambiar sencillamente de método de trabajo para procesar diferentes tipos de muestras. La digestión simultánea de muestras requiere conocer en cada tanda el número de muestras corridas y el tipo de vaso de digestión utilizado. Con esta información se debe calcular la cantidad exacta de energía necesaria para completar la digestión y aplicarla con precisión. Este tipo de tecnologías permite procesar hasta unas 40 muestras en menos de 40 minutos, en forma reproducible y segura. Eso sí, las muestras deben ser similares y los sistemas deben ser capaces de determinar la temperatura (e idealmente presión) en cada vaso al fin de controlar la energía suministrada y verificar la correcta digestión de todas las muestras. Una vez terminado el ciclo de digestión, el usuario debe retirar el carrusel de muestras y de ser necesario cargar manualmente la otra tanda. El sistema secuencial de digestión es novedoso y permite la automatización de la digestión por microondas. Al procesar cada muestra en forma individual, el sistema puede correr diferentes tipos de muestra y matrices ácidas bajo condiciones específicamente programadas para cada muestra. Esencialmente, cada vaso es su propio vaso de control, con monitoreo de presión y temperatura, lo que garantiza la máxima reproducibilidad posible a las digestiones. Otra ventaja de estos sistemas es que se simplificó enormemente el sistema de cierre del vaso de digestión, como puede apreciarse en la foto. Aún así, la digestión de cada muestra suele ser inferior a 10 minutos y puede funcionar en forma desatendida día y noche. La determinación de metales pesados es un nuevo desafío en la continua necesidad de garantizar la seguridad de los medicamentos. En este contexto, es esencial contar con un análisis simple, rápido y exacto. Las mejoras en los instrumentos de espectrometría necesitan en paralelo avances tecnológicos similares en la preparación de las muestras. En este sentido los sistemas de digestión de muestras aceleradas por microondas son ideales para la preparación de una amplia variedad de matrices de alimentos y ofrecen un gran avance en la instrumentación basada en el caudal de muestras en el laboratorio. Tanto los sistemas basados en digestión en lotes y los secuenciales permiten ahorrar tiempo. Además, ambos sistemas reducen significativamente el consumo de ácido en comparación con los métodos que utilizan una plancha calefactora. Al realizar la digestión de las muestras en vasos cerrados, se evita la contaminación cruzada y se hace posible la recuperación incluso de elementos volátiles. La recuperación de analitos es exacta y reproducible.n 43 EL RINCÓN DE LA CALIDAD Resolución de Problemas Cuando la prevención no fue suficiente Dr. Mario Lisnizer n Introducción La gestión de calidad, interpretada como un sistema integral, puede presentarse constituida por tres procesos: • Planificación de la calidad • Control de la calidad • Mejora de la calidad. Estos procesos se conocen como “trilogía de Juran”. 1 En esta oportunidad el artículo se focaliza en la mejora de la calidad, y en particular en un elemento básico para su desarrollo que es la resolución de problemas. Si bien la voluntad cuenta, no siempre se es consciente de los beneficios resultantes al disponer de un enfoque estructurado para resolver problemas; generalmente se espera que la intuición de los profesionales sea suficiente y se asume que no se requiere una formación especial al respecto. Es así, que sin una clara metodología muchos problemas siguen sin resolverse debido fundamentalmente a las dificultades que se presentan para comprender las causas principales, las interacciones y los efectos de variables secundarias. Esto conduce a problemas crónicos, tolerados en la creencia de que forman parte del proceso, que no pueden manejarse o que no hay suficiente tiempo para resolverlos. Este comportamiento debiera sustituirse por una formal actitud de resolución de problemas. n Normas y definiciones Datos recientes respecto a auditorías de certificación según la norma ISO/TS 16949 2 muestran que el deficiente tratamiento de las acciones correctivas, es la no conformidad mayor más frecuentemente citada. Esta misma norma, en varios aspectos más completa que la ISO 9001, requiere que el manejo de las acciones correctivas incluya los siguientes elementos: • Resolución de problemas • Sistema a prueba de errores • Impacto de la acción correctiva • Ensayos y análisis de los productos rechazados Además, requiere que las organizaciones cuenten con un proceso definido para la resolución de problemas, el cual conduzca a la identificación de la causa raíz y su eliminación. Dentro del marco de norma ISO/TS 16949, a continuación se revisarán algunos conceptos y definiciones relacionados con el proceso de resolución de problemas. Identificación del problema: Es un paso crítico y, aunque pareciera obvio, en general es analizado con ligereza. No es lo mismo identificar el problema que sólo sus síntomas. Acciones de contención: Son las acciones inmediatas que se adop- 44 tan para hacer frente a los síntomas de una no conformidad detectada. Se debe tener bien en claro que este tipo de acciones no pueden identificarse como una resolución del problema. Análisis de la causa raíz: Causa subyacente, más difícil de ver, que contribuye a obtener resultados no deseados y que si no se elimina continúa creando problemas recurrentes. Acción correctiva: Acción requerida para eliminar la causa de una no conformidad u otra situación indeseable detectada. El objetivo de esta acción es evitar la recurrencia del problema. Verificación de la eficacia: Un proceso de resolución de problemas no puede caracterizarse como concluido sino se verifica la eficacia de la acción correctiva implementada. Sistema a prueba de errores: Es la acción aplicada en la etapa de diseño para evitar errores. Más allá del diseño, la norma ISO/TS 16949 requiere a la organización utilizar métodos de este tipo en el proceso de acción correctiva. Impacto de la acción correctiva: Demanda que la organización analice y aplique acciones correctivas a otros procesos y productos que pudieran presentar problemas similares. n Tipos de problemas Una de las características distintivas de un correcto enfoque en la resolución de problemas es tratar de identificar el evento dentro de un tipo o categoría de problemas ya definido. Son varias las disciplinas que adoptan esta metodología como uno de los primeros pasos, la medicina es una de ellas; en general con procedimientos bien estructurados tanto para el diagnóstico como para el tratamiento. ¿Por qué no utilizar un esquema similar para los problemas de calidad? Previo a cualquier análisis, se debiera clarificar si se trata de un problema que requiere una acción de contención o una mejora estructurada. Si bien lo óptimo sería poder resolver problemas hallando las causas raíz y adoptando soluciones definitivas, no siempre es lo más recomendable como primera acción. “Apagar incendios” (como expresión figurada o real) no es estrictamente resolver el problema, pero no hay duda que en varios casos es el comienzo posible y necesario; luego se debería pasar a la etapa de una mejora estructurada con una descripción del problema, seguida por una detallada investigación de las causas, la identificación de la mejor solución y la verificación de su eficacia. Las acciones de contención, en algunos casos denominadas acciones temporarias, si se incorporan al proceso suelen agregar costo al mismo y, por lo tanto, añaden un elemento adicional para resolver el problema en forma permanente. Otro criterio simple para la clasificación de problemas es el indicado por varios especialistas como Shewhart, Juran, Kepner y Tregoe, según el cual los problemas pueden ser ubicados en dos grupos: esporádicos y crónicos [Ver Tabla 1], donde para cada grupo se requerirá un tratamiento diferente. Shewhart hizo una importante observación adicional: “Los problemas con causas especiales deben resolverse antes que los proble- mas con causas comunes”. En otras palabras, los problemas que originen un claro pico de inestabilidad deben resolverse antes de aquellos que se manifiestan con una conocida variabilidad. Tabla 2. Herramientas básicas de calidad Tabla 1. Dos tipos de problemas Avanzando en este concepto de identificación del tipo de problemas, se pasa a una más detallada definición de categorías, también denominada taxonomía de los problemas. Se revisará en esta oportunidad la propuesta por Frederick Nickols 3, quien diferencia los problemas según el tipo de acciones a encarar: Tabla 3. Nuevas herramientas de calidad • Reparación: Restaurar el mal funcionamiento de un sistema a su nivel de desempeño deseado o previsto. • Mejoras: Mejorar un sistema a niveles de desempeño superiores a los originalmente previstos. • Ingeniería: Diseñar un nuevo sistema. En la Figura 1 se representa esta categorización, ampliada por otros trabajos 4, identificándose en un segundo nivel dos tipos de problemas básicos: desempeño y diseño. Estos se dividen por último en cinco tipos específicos de problemas de calidad: conformidad, desempeño, eficacia, diseño de producto y diseño de proceso. Figura 1. Taxonomía de los problemas de calidad n Modelos y Metodologías Si bien es propia de la naturaleza humana la búsqueda de soluciones y que a través del tiempo se han utilizado varias estrategias para resolver diferentes tipos problemas, se podría decir que es recién a partir de principios de 1950 cuando especialistas en calidad comenzaron a describir y documentar modelos y metodologías específicos para la resolución de problemas. Se citarán en principio sólo algunos de ellos, de los cuales se cuenta con amplia bibliografía para su consulta: • Control estadístico de procesos: Desarrollado por W.A.Shewhart para disponer de una descripción estadística del problema. • Ciclo planificar-hacer-controlar-actuar (plan-do-check-act): El ampliamente difundido ciclo de Deming con sus cuatro fases. • Fases de diagnóstico y de remedio: Presentado por J. M. Juran como los viajes de diagnóstico y remedio, dos claras y diferenciadas etapas para la resolución de un problema. Aunque sin entrar en detalles en esta oportunidad, se ofrecerán algunas características de los siguientes métodos: n Herramientas Según la clasificación de Nickols se puede considerar a la resolución de problemas como una tarea de reparación, mejora o ingeniería y como tal requiere de herramientas. Estas herramientas pueden definirse como técnicas que ayudan a comprender un problema. En la Tabla 2 se presentan las conocidas como herramientas básicas de calidad, las cuales tienen en varios casos un requerimiento cuantitativo. En la Tabla 3 se incluyen las denominadas nuevas herramientas de calidad, las cuales facilitan un análisis y comprensión más amplia del problema, y son principalmente no numéricas. Método a prueba de errores (mistake-proofing) o Poka-Yoke Se trata de un sistema anti errores, cuyo nombre Poka-Yoke proviene del japonés, Poka: Error inadvertido y Yoke (yokeru): Evitar. Esta metodología fue perfeccionada hacia la década de 1960 por el Ing. Shigeo Shingo, tratándose en general de diseños mecánicos, eléctricos o electrónicos que impiden que el defecto se produzca, sin requerir la atención humana, sea éste operador o usuario. Las técnicas Poka-Yoke pueden clasificarse en preventivas y de detección. Son ya mecanismos habituales en la vida diaria; como ejemplos se pueden mencionar conectores eléctricos (USB y otros), diseños de encastre de piezas (en líneas de montaje) o simples alarmas en caso de cometer un error. No es cuestión de aplicar Poka-Yokes en forma indiscriminada en los procesos industriales pero sí determinar los puntos críticos en combinación con otras metodologías, como HACCP o FMEA, y evaluar la 45 factibilidad y beneficio de aplicar un mecanismo de este tipo. Como regla general la conveniencia del uso de técnicas Poka-Yoke se presenta en aquellos casos de procesos hombre dependiente y/o repetitivo. Seguramente que se encontrarán algunas oportunidades de aplicación en las distintas áreas de trabajo de los lectores. Benchmarking En lugar de desarrollar una idea original, puede resultar beneficioso investigar que han hecho otras organizaciones en situaciones similares. En principio, y lo ideal, sería investigar sobre la base de aquellas empresas o instituciones líderes en determinados aspectos o técnicas (no necesariamente dentro de la propia actividad). En síntesis “no reinventar la rueda” si no es necesario. TRIZ 5 En una apretada síntesis puede decirse que se trata de un método para la resolución de problemas, fundamentalmente de ingeniería. Se basa en la identificación de un conjunto de características técnicas que generan conflictos y su confrontación con otro conjunto de soluciones. A partir de estas matrices se trata de buscar analogías para un problema determinado. Estos problemas son denominados “problemas inventivos” y a menudo requieren la combinación de diferentes disciplinas para llegar a una solución. Metodología de Kepner y Tregoe 6 Esta metodología distingue cuatro procesos separados: 1. El análisis de situación 2. El análisis de problemas 3. El análisis de decisiones 4. El análisis de problemas potenciales El punto de partida es el análisis de situación, que conduce a los otros tres procesos. En la Figura 2 se representa gráficamente la metodología, incluyéndose las principales características de cada paso. Figura 2. Metodología de Kepner y Tregoe DMAIC DMAIC (define-measure-analyze-improve-control) es una de las metodologías del modelo Six Sigma. El objetivo de Six Sigma es mejorar los resultados de calidad de procesos mediante la identificación y eliminación de las causas de los defectos, y minimizando la variabilidad. La metodología DMAIC se basa en estas cinco fases: • Definir el problema • Medir aspectos clave del proceso y recopilar los datos relevantes. • Analizar los datos para investigar y verificar las relaciones causaefecto. Identificar la causa raíz. • Mejorar el proceso sobre la base de la información obtenida. • Controlar el nuevo proceso para asegurar que no existan desviaciones. n Resolución efectiva de problemas Siguiendo los lineamientos de la metodología DMAIC, se podría decir como regla que una resolución efectiva de problemas debiera considerar como mínimo los siguientes pasos: • Definir el problema, teniendo en cuenta la “voz del cliente” (interno y externo) y de otras partes interesadas (stakeholders). • Representar gráficamente las relaciones causa-efecto. Evitar relatos innecesarios. • Identificar acciones para cada causa y efecto (por ejemplo método AMFE). • Proveer evidencias que apoyen la existencia de cada causa. • Determinar si el conjunto de causas identificado es suficiente y necesario para obtener el resultado en análisis. • Proporcionar soluciones efectivas para prevenir la recurrencia, cumplir con los objetivos y no causar otros problemas. • Poner en práctica y verificar la eficacia de cada solución. n Palabras finales Por supuesto que es preferible prevenir que corregir o resolver problemas. El diseño de los procesos y la planificación de la calidad debieran ser lo suficientemente robustos para evitar errores y por lo tanto no requerir la aplicación de metodologías de resolución de problemas. Si bien este objetivo puede parecer utópico, presenta la virtud de ser por otra parte fuertemente desafiante. Si se encara la resolución de problemas de una manera sistemática en su diagnóstico y tratamiento, como así mismo aprovechando el error para evitar la recurrencia en procesos y productos similares, se estará consolidando además el sistema de prevención en la gestión de calidad. n n Referencias 1. Juran, J.M. Manual de Calidad – Mc Graw Hill – Madrid - 2001 2. ISO/TS 16949:2009, Quality management systems – Particular requirements for the application of ISO 9001:2008 for the automotive production and relevant service part organization 3. Nickols, F. “Yes, It Makes a Difference” – Quality Progress, Vol. 29, N° 1 4. Smith, G.F. “Too Many Types of Quality Problems” – Quality Progress, Abril 2000 5. Shulyak, Lev. Introduction to TRIZ. www.aitriz.org/articles/40p_triz.pdf 6. Kepner, C.H., and Tregoe, B.B. The New Rational Manager – London – John Martin Publishing - 1981 46 EL RINCÓN DE LA ECOLOGÍA ¿QUÉ SUCEDERÁ CON LAS FUTURAS GENERACIONES SI EL DETERIORO ECOLÓGICO CONTINÚA? Lic. Elmundo Rebuelto El calentamiento global, la deforestación en las zonas tropicales, la desertificación, la degradación general de los suelos, el desgaste de la capa de ozono, el crecimiento indiscriminado de las manchas urbanas; representan una amenaza tanto para los países en vía de desarrollo como para los industrializados, aunque se sabe claramente que la población más afectada será la población más pobre de los países con menos recursos, la que depende más directamente de los recursos ambientales. ¿Por qué? De acuerdo a las declaraciones de la Secretaria del Commonwealth en 1989: “en general los países pobres y los grupos pobres de cada nación poseen una menor capacidad de adaptación, y suelen ser más vulnerables, dada la mayor dependencia de sus economías de los recursos agrícolas y naturales “. En las conclusiones de la conferencia conjunta del Consejo Internacional de Uniones Científicas, el programa de las Naciones Unidas para el Medio Ambiente y la Organización Meteorológica Mundial, celebrada en 1985, se señala que muchas decisiones económicas y sociales –sobre materias como los sistemas de riego, la energía hidráulica, la utilización de los terrenos agrícolas, la planificación energética, la ayuda contra sequías y los proyectos de ingeniería costera- se adoptan tomando como referencias datos climáticos del pasado como la manera más fidedigna de planificación a futuro. Sin embargo, este tipo de referencias ya no serán funcionales dado el esperado calentamiento del clima global, como consecuencia del efecto invernadero causado por las emisiones de gases. Es difícil predecir con exactitud que alcance tendrán estos cambios, ya que puede aumentar la humedad en algunas zonas, mientras otras se tornan más secas, incrementándose en frecuencia y duración de sequías en algunas regiones, y las inundaciones pueden causar estragos en tierra donde no solían presentarse estos fenómenos. La comunidad científica coincide al menos en señalar un aspecto: el aumento de las concentraciones de gases, dióxido de carbono y otros gases derivados del efecto invernadero 48 en las variaciones climáticas y sus impactos colaterales (Villach, Austria, 1985) Word Climate Programme, reporte WMO-661 Consejo Internacional de Uniones Científicas PNUAMA, OMM. Causantes del efecto invernadero como el dióxido de carbono, el metano, el óxido nitroso, los clorofluorocarbonos y de ozono en las capas bajas de la atmósfera, así como el vapor de agua provocarán un calentamiento palpable de las temperaturas superficiales en un plazo de décadas y no de siglos como se pensaba. De acuerdo a estudios realizados por el Programa de las Naciones Unidas para el medio ambiente, con la duplicación de la concentración atmosférica de dióxido de carbono respecto a la situación preindustrial, el aumento promedio de la temperatura superficial global media de equilibrio se espera sea de aproximadamente 3º C en el curso de los próximos 50 a 70 años, acotando además que las elevaciones de la temperatura serán superiores cuanto mayor sea la distancia en que se encuentren del ecuador. Dicho aumento, provocará una subida media global de unos 30 cm del nivel del mar en el curso de los próximos 50 años aproximadamente, favoreciendo el anegamiento de las zonas bajas en muchos casos densamente pobladas y aún cuando los científicos todavía no han llegado a muchas conclusiones en torno a la magnitud de este anegamiento, se sabe que una subida de entre uno o dos metros en el nivel del mar dejaría zonas húmedas y tierras bajas permanentemente sumergidas, aceleraría las inundaciones en las zonas litorales, amenazaría las estructuras costeras e incrementaría la salinidad de los estuarios y acuíferos próximos al litoral. Muchos ecosistemas costeros que constituyen zonas de reproducción y cría para los peces y otros recursos marinos quedarían radicalmente alterados, se intensificarían las marcas y las marejadas con el consiguiente incremento de los daños causados a los asentamientos humanos. Varios países en desarrollo, sobre todo las islas y archipiélagos llanos se hallan particularmente expuestos. A menudo, se destaca el carácter global de estas amenazas, pero se habla menos de su aspecto “transgeneracional” y no hay que olvidar que muchos de los efectos esperados se mantendrán para las futuras generaciones. En un mundo tan densamente poblado, donde todos los esfuerzos humanos se basan en las condiciones actuales climáticas, casi cualquier variación tendrá efectos perjudiciales a corto plazo como bien lo señala la organización meteorológica mundial: “Cualquier cambio en el clima tenderá a inducir crecientes tensiones en la sociedad, éstas podrán tener su origen en un cambio de las prácticas agrícolas en la disponibilidad del agua o en la mayor variabilidad de la meteorología con una mayor frecuencia de tormentas y otros fenómenos.” Ante este complejo panorama, las preguntas son: ¿Somos conscientes de la gravedad de la situación? ¿Pensamos en los problemas que les dejaremos a las próximas generaciones, y ¿Estamos haciendo algo para atenuar el impacto? n LA PÁGINA DE LAS BUENAS PRÁCTICAS DE RRHH LA INCORPORACIÓN DE TALENTO COMO VENTAJA COMPETITIVA Y LA EMPLEABILIDAD DE LOS PROFESIONALES DE LA INDUSTRIA ¿Cómo construyen las empresas exitosas los procesos de selección cuando deciden incorporar talentos? ¿Qué herramientas utilizan las personas talentosas para mantener su empleabilidad? Lic. Viviana Trejo Hoy es impensable considerar que las organizaciones puedan definir una única estrategia para atraer y retener a los empleados, por el impacto de la incorporación de nuevas tecnologías en los procesos de selección, por la importancia de generar una imagen de marca empleadora, por la necesidad de seducción a los diferentes públicos organizacionales. Las mencionadas son solo algunas de las causas que generan el re-planteamiento de diferentes alternativas, al momento de definir procesos de selección eficientes. Este marco referencial y la incidencia indiscutible de las nuevas tecnologías (TIC), hace que se pregunte: ¿Quién se hubiera imaginado hace unos años atrás que se podrían convocar a entrevistas a través de un celular? ¿O hacer entrevistas a través de video conferencias? ¿O que los postulantes ofrezcan sus competencias vía Internet? ¿O que se los llame para realizar consultas por chat o vía Skype? Por otro lado, ya no resulta suficiente, para atraer al personal talentoso a la organización, ofrecer únicamente estabilidad laboral y una remuneración. Hoy en día, los postulantes talentosos requieren que la empresa les ofrezca planes de capacitación y desarrollo, acorde a sus competencias, un buen clima laboral, constantes desafíos, reconocimiento. Todo ello sumado a una remuneración y un paquete de beneficios coincidente a sus conocimientos, habilidades y actitudes. Consecuentemente, resulta imprescindible repensar los modelos y adaptarlos a los nuevos requerimientos y oportunidades del mercado laboral. capacidad de aprendizaje, flexibilidad, innovación, trabajo en equipo, liderazgo, capacidad de análisis, orientación a la calidad, relaciones interpersonales y comunicación, autonomía. Es fundamental que en el momento de la definición de la estrategia del proceso se establezcan los pasos a seguir para cada etapa del proceso de selección. Esta es la oportunidad para que se establezcan las formas de contacto con los postulantes a la búsqueda, las modalidades de entrevistas (individuales, en paneles, es decir, con varios selectores, grupales, Assesment Center Method (ACM), entrevistas grupales) para evaluar competencias, bajo qué criterios se definirán a los pre-candidatos, y qué propuesta definitiva y/o contrato económico le haremos conocer al candidato seleccionado. Se debe hacer un paréntesis para reconocer, que en todo el proceso de búsqueda y selección se crea un contrato psicológico, el cuál merece un análisis. n Claves a considerar en los procesos de selección basados en competencias por parte de las empresas En las decisiones de configuración y diseño de los procesos de selección, se ponen en juego la filosofía y la cultura empresarial. El aporte de RRHH a la estrategia del negocio consiste en atraer y desarrollar a los mejores talentos. Ello con el fin de generar una ventaja competitiva, a través del establecimiento de las políticas y procesos coincidentes con las mismas. En primer lugar, es importante definir cuál será la estrategia del proceso de selección que se utilizará de acuerdo al puesto a cubrir. Para ello, es indispensable establecer indicadores que permitan evaluar la eficacia y eficiencia del proceso en su conjunto. En general, las empresas tiene su propio proceso de búsqueda, con un punto de partida fundamental que es la definición del perfil, en el cual se incluyen las competencias críticas y claves que deben estar presentes en el futuro ocupante del puesto de trabajo. Por eso, es sumamente valioso contar con descriptivos de puestos que contengan competencias extrínsecas e intrínsecas que debe poseer el ocupante. Vale detenerse un momento para definir y distinguir entre competencias y conocimientos. Las competencias de un individuo se relacionan con las características de personalidad observables, que frecuentemente predicen el comportamiento y el desempeño. Se pueden destacar algunas competencias que comúnmente requieren las organizaciones exitosas a la hora de incorporar a su personal: 49 Siguiendo a Schein, el contrato psicológico implica la existencia de un conjunto de expectativas conductuales, no escritas, que operan en todo momento entre cualquier miembro y otros miembros y/o dirigentes de la organización. Las personas que desempeñan roles de empleados, tienen expectativas sobre salario, escalas salariales, jornadas laborales, beneficios; en definitiva todos los factores que lo afectan en su trabajo; las organizaciones, por su parte hacen lo propio sobre el desempeño de los empleados, su fidelidad, su lealtad, etc. Este tipo de contrato en general, difiere de los contratos legales, establecidos formalmente. La detección de este contrato en forma oportuna, permite que el empleador y el empleado puedan alcanzar el éxito conjugando los procesos de selección con la incorporación de talento. La definición estratégica de un buen proceso de selección, desde el punto de vista empresarial, permitirá que la empresa: •• Obtenga una mejor relación productividad / costo por empleado •• Minimice los tiempos de incorporación del personal •• Reduzca períodos de aprendizaje •• Identifique a los empleados con potencial (key People) Para lograr los beneficios que otorga realizar un eficiente y eficaz proceso de selección, es recomendable seleccionar individualmente las fuentes de reclutamiento de acuerdo al perfil del puesto determinado y a la cultura de la empresa, utilizar técnicas de entrevistas acordes con la especificidad de la búsqueda, realizar seguimientos que permitan corroborar la eficacia del procesos. n Claves a considerar en los procesos de selección basados en competencias por parte de los profesionales con alto potencial A la hora de decidir por una reinserción y búsqueda laboral es importante tener presentes algunos aspectos y herramientas que permitirán lograr el éxito del proceso. Del mismo modo, que las empresas tienen que realizar una definición estratégica sobre los procesos de selección, los candidatos que se encuentran en búsquedas laborales no deben desconocer que también deben definir y establecer una estrategia de búsqueda de empleo, con el fin de que se mantenga activa la empleabilidad del individuo. Es importante focalizarse en los aquellos que hacen que una persona sea considerada y tenida en cuenta en el mercado laboral. El nivel de empleabilidad se basa en variables como: los conocimientos técnicos, las destrezas, o los oficios adquiridos a través de educación formal o no formal, las competencias actitudinales y en general y en particular a la actitud con la que se enfrenta la búsqueda laboral, la cual implica tiempo, compromiso y responsabilidad. ¿Cuál es la mejor estrategia para comenzar a enfrentar un proceso de búsqueda laboral? 1.Identificar sus competencias actitudinales 2.Analizar sus fortalezas y debilidades 3.Seleccionar las experiencias más relevantes que valgan la pena mencionar en las entrevistas laborales 4.Identificar sus habilidades técnicas 5.Clasificar sus motivaciones 6.Preparar un plan de trabajo (leer las ofertas de trabajo en diarios, revistas especializadas, etc., ingresar la información solicitada en los buscadores de empleo, acceder a las bolsas de trabajo de instituciones educativas o asociaciones, etc., enviar el CV a los contactos y referidos) Tener actualizados los datos personales y profesionales en las redes profesionales, como ser Linkedlin o Xing, puede ser un factor clave. La presentación bajo estas herramientas favorece el networking personal y abarca multiplicidad de usuarios. Esta forma de identificación de 50 los candidatos por parte de las empresas, permite su localización en forma económica y rápida. Para encontrar el trabajo que se desea, debe evaluarse objetivamente el propio perfil con realismo en cuanto a sus conocimientos, actitudes, preferencias, y debilidades. La definición de estos aspectos es fundamental porque le permitirá a la persona analizar las propuestas, que se le presenten durante el proceso de búsqueda laboral, de acuerdo a sus impulsos motivacionales, al tipo de cultura en la cual le gusta trabajar, al estilo de comunicación preferido, al estilo de liderazgo que pretende de sus superiores, entre otros. ¿Cómo confeccionar un CV atractivo para que le sea de interés a la empresa que está buscando un perfil similar al suyo? •• Establecer los objetivos profesionales a corto y mediano plazo •• Mencionar la capacitación formal •• Identificar y cuantificar los logros obtenidos durante su trayectoria laboral •• Seleccionar las principales funciones/tareas y responsabilidades, incluyendo los títulos de los puestos ocupados •• Incorporar los conocimientos relacionados con el idioma, las herramientas tecnológicas y/ cursos de especialización relacionados con la búsqueda. •• Incluir los datos personales esenciales •• Mencionar exclusivamente las referencias si son consideradas excluyentes en la solicitud de empleo TIPS a tener en cuenta: •• El CV no debe ser demasiado extenso (no más de 2 hojas tamaño carta) •• Debe ser escrito en un lenguaje sencillo y claro •• Debe utilizarse un tamaño de letra no superior al estilo Arial 12 •• Puede ser confeccionado en idioma español o en otro idioma, de acuerdo a los requerimientos de la búsqueda o el perfil de empresa •• Deben revisarse los errores ortográficos. ¿Cómo comportarse en las entrevistas laborales? Vale señalar, algunos aspectos relacionados al comportamiento en una entrevista laboral, lo que, lo ayudará a tener éxito en su desenvolvimiento: •• Llegar a horario (no adelantarse ni retrasarse) •• Utilizar vestimenta apropiada •• Investigar sobre la empresa a la que va a dirigirse antes de la realización de la entrevista •• Manejar la ansiedad y las expectativas •• Mirar a los ojos al entrevistador •• Escuchar atentamente las preguntas que se le realizan •• Contestar de acuerdo al tipo de preguntas (dirigidas, semidirigidas, libres, etc.) •• No criticar al empleador actual o a empleadores anteriores •• Ser sincero No hay que olvidarse que la evaluación del entrevistado comienza desde el momento en que el mismo accedió a tener una entrevista con el personal de la empresa convocante. Para concluir, es importante destacar que tanto atraer y desarrollar talentos como la estrategia definida por los candidatos de alto potencial para obtener el trabajo deseado, tienen varios comunes denominadores: la motivación, la responsabilidad y el compromiso, puntos centrales a la hora de la confección de las respectivas estrategias. Cuando esto sucede, aparece el concepto de ÉXITO, de ser un empleador atractivo y de ser un talento requerido. Afortunadamente ésta es una tendencia que se acentúa y genera nuevos desafíos para todos los protagonistas. n Congreso Proceasep 2013 Procesamiento Aséptico en la Industria Biofarmacéutica La Habana, Cuba, Abril 2013 Con la participación activa de destacados profesionales, Mario Bichman, Darío Casal, Víctor Maqueda y Sandra Rumiano representando a nuestro país especialmente invitados a disertar en el Congreso Proceasep que se llevó a cabo durante el mes de abril. Esta reunión se desarrolla en la ciudad de La Habana, Cuba, cada dos años. La organizadora del mismo, nuestra colega Sara Hernández y su La Dra. Sandra Rumiano, nuestra columnista jefe, Humberto Perez, merecen el máximo reconocimiento no solo por el intenso trabajo realizado, sino por el alto grado de participación logrado, que atrajo a colegas de México, Perú y Paraguay. El resumen de este comentario vertido por la responsable de esta columna, es que esta convocatoria se convirtió en una verdadera fiesta del conocimiento. La apertura estuvo a cargo del Ing. Alberto Agraz, Director General de BioCen Presidente del Comité Organizador, (Cuba). PROCEASEP es uno de los eventos más importantes para los especialistas y técnicos que en Cuba trabajan en la industria biofarmacéutica, siendo la edición de este año el Séptimo Taller y Congreso. Los talleres pre-Congreso cubrieron los siguientes temas: • Vidrio para uso farmacéutico: Profesores: Dr. Fabiano Nicoletti, (Italia) y Dr. Emanuel Guadagnino, (Italia) • Taller sobre extractables y lixiviables: Profesor: Dra. Sandra Rumiano (Argentina) • Taller de instrumentación y mediciones y sus normativas para áreas limpias: Profesor: Ing. Mario Bitchman (Argentina) • Developments in process equipment and environmetal monitoring technologies in the aseptic processing of biological producs: Profesores: James Drinkwater, (UK) and Jon Nottingham, (UK) Vista de la numerosa concurrencia. Palco de Autoridades en el acto de inauguración • Safety ventilation in pharmaceutical and biotech industry – an introduction: Professor Bengt Ljungqvist, PhD, and Assoc. Professor Berit Reinmüller, PhD, Building Services Engineering, Chalmers University of Technology, Göteborg, (Suecia) El Congreso contó con videoconferencias desde Europa con la participación del Dr.Agalloco y la Dra. Dima Al-hadithi. El marco de los disertantes incluyó a colegas de Inglaterra, Dr. James Drinkwater, Chairman of the Pharmaceutical & Healthcare Sciences Society, UK; Gordon J. Farquharson. Chair BSI LBI/030; Chair CEN TC243; Convenor ISO TC209 WG1. c/o Critical Systems Ltd, UK; Professor Bengt Ljungqvist, PhD, and Assoc. Professor Berit Reinmüller, PhD, Building Services Engineering, Chalmers University of Technology, Göteborg (Suecia). Los tópicos desarrollados fueron los siguientes: • Extractables & Leachables: Dra. Sandra Rumiano y Dr. Alejandro Beldarraín Iznaga, Coordinador del Comité Técnico de Analítica del Consejo de Calidad., Cuba y una mesa redonda con la que participamos de los disertantes y el aporte de MSc. Biorkys Yáñez de la Autoridad Sanitaria (CECMED, Cuba),y de MSc.Humberto Pérez (BioCen, Cuba).como representante de la Industria. • Actualización del estándar de los cuartos limpios. Cambios en la ISO 14644-1 para 2014, su impacto en nuestras BPF , Gordon J. Farquharson • “Esterilidad por diseño”/ “Sterility by design” James Agalloco, Agalloco & Associates, Belle Mead, NJ, USA • “Consideraciones especiales en los ambientes de manufactura de biológicos”, Dr. James Drinkwater • “Agua para Inyección y Vapor Puro en la industria farmacéutica: aspectos clave de diseño y validación”, Victor Maqueda, Experto y Consultor en BPF, Argentina. • “Movimientos del aire en áreas críticas con flujo unidireccional – Evaluación de los lugares de monitoreo” Professor Bengt Ljungqvist, PhD, and Assoc. Professor Berit Reinmüller, PhD, Building Services Engineering, Chalmers University of Technology, Göteborg, (Suecia) • “Inspección óptica de partículas” Darío Casal, Experto y Consultor en BPF, Argentina. n 51 Novedades terapéuticas Desarrollan un método eficaz y económico para purificar la eritropoyetina Su uso llevó a que los pacientes requiriesen menor cantidad de transfusiones y en consecuencia, estuviesen menos expuestos a los inconvenientes que implica recibir sangre de dadores. La eritropoyetina humana recombinante es una hormona glicoproteica que se usa para tratar a pacientes con insuficiencia renal que requieren de diálisis, y en otras anemias, como las asociadas a las terapias de cáncer, hepatitis C y Sida. También se la utiliza en el tratamiento o la prevención de la anemia del prematuro. En la actualidad, se la postula, además, como candidata terapéutica para otras patologías. Los métodos de producción actuales son costosos, ya que demandan sucesivas etapas de purificación. La eritropoyetina adquirió renombre en la prensa mundial, desafortunadamente, por varios escándalos de dopaje en el deporte, en especial en el ciclismo de alta competición, por lo que fue llamada la “droga del ciclista”, dada su capacidad de incrementar la producción de glóbulos rojos en corto tiempo. Por citar uno de los casos más resonantes y aciagos: el del recordado ciclista italiano Marco Pantani, “Il Pirata”, a quien se consideró uno de los mejores escaladores de todos los tiempos. Había sido campeón del Giro de Italia y del Tour de Francia en 1998. En 1999, luego de haber ganado en cuatro etapas del Giro y haberse constituido en líder de la competencia, fue descalificado al superar la tasa permitida de hematocrito -porcentaje del volumen total de sangre compuesta por glóbulos rojos-, lo que muy probablemente significaba que había consumido EPO, sustancia prohibida dado que produce una mejora significativa de la marca deportiva en los ejercicios de larga duración. El 14 de febrero de 2004, a los 34 años, Pantani fue hallado muerto en la habitación de un hotel en Rímini, debido a una sobredosis de antidepresivos y cocaína, droga a la que era adicto. La producción de eritropoyetina recombinante humana (EPO rh) requiere de un complejo proceso de separación y purificación para aislarla del medio de cultivo en el cual es producida. “Los procedimientos pueden demandar entre un 60 y 80% de los costos totales de producción. Esto es debido a que los criterios de calidad requeridos para los productos que tendrán uso terapéutico son muy estrictos”, explican los investigadores María Martínez-Ceron, Mariela Marani, Marta Taulés, Marina Etcheverrigaray, Fernando Albericio, Osvaldo Cascone y Silvia Camperi, en un artículo reciente de la revista “ACS Combinatorial Science”. Debido a que la administración de la EPO rh es parenteral, es decir, se introduce en el organismo por vía subcutánea intravenosa, la hormona debe tener un grado de pureza mayor al 99% y es, por lo tanto, la purificación el paso crítico en su proceso de producción. La EPO humana nativa fue purificada por primera vez en 1977 por T. Miyake y colaboradores, a partir de orina de pacientes con anemia aplásica severa, un trastorno por el que se produce un desarrollo defectuoso o incompleto de las líneas celulares de la médula ósea. Desde que F. Lin descubrió el gen, en 1984, se pudo obtener la EPO recombinante humana (EPO rh) de uso terapéutico que es equivalente, inmunológica y funcionalmente, a la que fabrica el organismo. Es el principal regulador fisiológico del proceso de maduración y diferenciación de los 52 progenitores hematopoyéticos eritroides en la médula ósea. Además, mantiene los niveles fisiológicos de los glóbulos rojos circulantes. “Normalmente, el proceso de purificación consiste en múltiples etapas de separación. En consecuencia, se hace necesario mejorar cada etapa, considerada en forma individual, pero también, combinar estos pasos de modo adecuado para incrementar la eficacia global del proceso”, explica Cascone. El método desarrollado por este equipo de investigadores de las universidades de Buenos Aires, del Litoral y Barcelona, opera en tres pasos: en primera instancia se obtiene un sobrenadante de cultivo libre de células por centrifugación o filtración. “El segundo paso consiste en acondicionar ese sobrenadante por diafiltración y, el tercero, en purificar la EPO rh por cromatografía de afinidad con péptidos inmovilizados en un soporte adecuado. Estos péptidos son seleccionados por screening de una biblioteca combinatoria sintética”, detalla Camperi. Es decir, este proceso resulta particularmente eficiente debido, por un lado, a la alta selectividad que se establece entre la proteína y el péptido; y por el otro, dado que conjuga las etapas de captura y de purificación fina en un solo paso, simplificándolo de modo notable y haciendo que los costos de producir eritropoyetina recombinante humana desciendan de modo considerable. n 26 .04 .13 Agencia de Noticias para la Difusión de la Ciencia y la Tecnología (DiCYT) ALENTADORA NOTICIA Exitosa participación argentina en la Convención Internacional de Biotecnología de Chicago El ministro de Ciencia, Tecnología e Innovación Productiva, Dr. Lino Barañao, encabezó la delegación nacional que participó en el mayor evento de la industria a nivel global. El pabellón argentino en la BIO 2013 reunió a 32 empresas e instituciones que mostraron sus desarrollos al mundo en la Convención Internacional BIO 2013, que se realizó en Chicago entre el 22 y el 25 de abril. Organizado por la Biotechnology Industry Organization (BIO), el evento convocó a 1.722 expositores y cerca de 14.000 líderes de la industria provenientes de 62 países, junto a autoridades internacionales y personalidades destacadas del sector. El pabellón argentino estuvo organizado por el Ministerio de Ciencia, Tecnología e Innovación Productiva y el Ministerio de Relaciones Exteriores y Culto, y ocupó parte de los 180.000 metros cuadrados de superficie expositiva. La Convención Internacional BIO se desarrolla desde 1987 y ofrece oportunidades estratégicas de reunión y comercialización para ese sector industrial. Este año, el evento cerró con el récord de 25.573 citas de negocios preacordadas y más de 125 sesiones de trabajo, que se refirieron a temáticas tales como biocombustibles y productos químicos de base biológica, patentes en biotecnología y transferencia de tecnología, desarrollo de negocios, finanzas, alimentación y agricultura. Nuestro país participa desde 2006 en este encuentro internacional, y en esta edición cuatro empresas fueron invitadas por la cartera de Ciencia. Entre ellas estuvieron las start up Biomatter, Bioimanay, Laboratorio de hemoderivados y Raomed. Otras empresas e instituciones presentes en el pabellón argentino fueron: el Consejo Nacional de Investigaciones Científicas y Técnicas (CONICET); la Cámara Argentina de Biotecnología; el Foro Argentino de Biotecnología; A8 Bio Clinical Services; Bioceres (Indear y Verdeca); Amega Biotech; Arcor; Berken IP; Biocódices; Biogenesis Bagó; Bioprofarma; Biosidus; Centro de Diagnóstico Molecular; Chemo Argentina; Diagramma S.A.; Laboratorio Elea; Gador; Grupo Bioquímico; el IIB INITECH UNSAM, conformado por el Instituto de Investigaciones Biotecnológicas y el Instituto Tecnológico de Chascomús; Inmunova; Laboratorios Beta S.A.; Molinos Río de la Plata; Pharma ADN; Vicentin; Wiener Laboratorios; y los mencionados ministerios, en su carácter de organizadores del pabellón. En Argentina alrededor de 120 empresas se dedican a la producción de biotecnología y se concentran principalmente en el campo de los medicamentos y otros insumos para el cuidado de la salud humana, la producción de semillas y micropropagación, la sanidad y manejo ganadero y la reproducción humana asistida. En la actualidad, estas empresas emplean alrededor de 3.000 personas. Según estimaciones realizadas durante los 15 años transcurridos desde la adopción de la técnica de modificación genética vegetal, más de 1.800.000 puestos de trabajo relacionados con estas tecnologías fueron creados en nuestro país. La edición 2014 de la BIO tendrá lugar en el San Diego Convention Center, ubicado en la ciudad de San Diego, California, entre el 23 y el 26 de junio. n 53 EL ATELIER DEL ARTISTA PETER PLODER 54 INFORME EUROPA PRESS, publicado en Salud para todos Europa exigirá nuevos requisitos a los fabricantes y distribuidores de medicamentos para evitar las falsificaciones La normativa europea exigirá nuevos requisitos a los fabricantes y distribuidores de medicamentos para evitar las falsificaciones, por este motivo se ha celebrado en el Ministerio de Sanidad una jornada Informativa, clausurada por la secretaria general de Sanidad y Consumo, Pilar Farjas, que tenía como objetivo dar a conocer las nuevas medidas. El encuentro también ha servido para explicar que su incorporación a la legislación española, que tendrá lugar en los próximos meses, incluirá nuevos requisitos técnicos aplicables a la fabricación de medicamentos, como consecuencias de la actualización de la guía de normas de correcta fabricación. La Agencia Española de Medicamentos y productos Sanitarios (AEMPS) trabaja, desde el momento de la publicación de la directiva, en la revisión del marco legislativo nacional para su incorporación al derecho español, “trabajos que están muy avanzados y que culminarán previsiblemente en los próximos meses. Esta iniciativa se formuló ante la preocupación de los legisladores de la Unión Europea por la falta de protección de los ciudadanos frente a los medicamentos falsificados, dando como resultado la mencionada Directiva, la 2011/62/UE. La nueva normativa incluye nuevos requisitos para los distribuidores y unas “Buenas prácticas de distribución”, recientemente publicadas por la Comisión Europea, que reforzarán las garantías de seguridad en el suministro de medicamentos. Además, se pretenden reforzar los controles y las garantías de los principios activos, que se utilizan en la fabricación de medicamentos, distribución o importación desde terceros países. Finalmente, la directiva incide en los dispositivos de seguridad que permitirán la identificación individual, a nivel de envase individual, de los medicamentos y la verificación de la autenticidad en la cadena de distribución y dispensación. “Aspecto este último pendiente de que tras la publicación, prevista para 2014, del acto delegado en la Comisión se inicien los trabajos de transposición”, señalan. Asimismo se han incorporado a la directiva una serie de disposiciones específicas para aumentar la seguridad de los ciudadanos en el comercio electrónico de medicamentos, ya que la compra en sitios web ilegales es considerada una de las vías más importantes llegada de medicamentos falsificados a los consumidores europeos. Además del cambio legislativo, en la jornada informativa se han expuesto los cambios recientes en las normativas y directrices técnicas aplicables a la fabricación de medicamentos. También se trataron brevemente otros aspectos de la guía que están siendo revisados por los grupos de expertos de la Agencia Europea de Medicamentos (EMA), como los capítulos 3 (locales y equipo) y 5 (producción), en relación con las instalaciones dedicadas; el capí- tulo 6 (control de calidad) o el capítulo 8 (reclamaciones y retirada de productos) La jornada ha servido para transmitir a la industria las principales novedades en el ámbito normativo y técnico a nivel de la UE y para que el sector pueda plantear sus dudas sobre las materias tratadas con el fin de facilitar la implantación de las mismas. n 55 NUESTROS PROVEEDORES Reología de una dispersión Un método rápido para predecir la sedimentación de partículas en las dispersiones líquidas n Introducción Existe una gran variedad de productos que pueden clasificarse como dispersiones liquidas. Se debe a que las dispersiones acuosas tienen varias ventajas, por ejemplo un nivel de viscosidad más bajo en comparación con las soluciones de concentración de soluto y a que el agua es más aceptable que los solventes orgánicos. Uno de los requerimientos más importantes para estos productos es que la fase dispersa permanezca estable y no sedimente durante varios meses o incluso durante años. Los fabricantes necesitan producir productos estables. Los productos inestables no solo resultan costosos para su manufactura, sino, como en el caso de los medicamentos, pueden resultar perjudiciales para el paciente. Algunas de las pruebas de estabilidad que se realizan en la actualidad insumen períodos de prueba demasiado prolongados y aquellos ensayos de envejecimiento acelerado pueden no ser confiables. Si la prueba de estabilidad no es conducida de manera adecuada, se corre el riesgo de que el producto sea inestable. Por lo tanto, es imperioso contar con una herramienta rápida para el análisis de estabilidad de las dispersiones líquidas. Los expertos en reología y los científicos que trabajan con coloides han logrado un progreso considerable en la comprensión de las relaciones entre la reología de las dispersiones liquidas, las soluciones de polímeros, los fluidos complejos y su físico química, estructura y morfología. Específicamente, los mayores avances se realizaron en establecer una relación entre la reología de las dispersiones y la velocidad de agregación de las partículas. A lo largo de los años se desarrollaron diversas teorías los modelos de flóculos, como Rouse, DLVO para coloides de carga estabilizada y la ecuación de Poisson-Boltzmann et al. En el mejor de los casos, estas teorías son semi cuantitativas, debido a sus supuestos simplificados. Para obtener mayor información, vea las referencias [1-5]. Los experimentadores se beneficiaron con estas teorías porque colaboran en el diseño de las pruebas reológicas adecuadas y en el análisis de los resultados. Lo mas revelador es que las dispersiones líquidas son formaciones complejas de partículas, llamadas flóculos, que son atraídas por las fuerzas de van der Waal más cercanas y las interacciones hidrodinámicas. Las dispersiones son fluidos reológicamente complejos que combinan los comportamientos viscosos y elásticos, que pueden ser descriptos por un espectro viscoelástico – un barrido de frecuencia oscilatoria. Un espectro completo debe cubrir todos los tiempos de relajación, de modo tal que la dependencia de frecuencia de las funciones del material, el almacenamiento y los módulos de pérdida, se extiendan hasta las regiones de plateau terminal del espectro. Las mediciones de velocidad regular de cizallamiento también son de gran valor para determinar la hidrodinámica de las dispersiones. La estabilidad de la dispersión de una partícula dependerá del equilibrio entre las fuerzas de atracción y repulsión que experi- 56 mentan las partículas cuando se aproximan entre si. Para mantener la estabilidad de la dispersión, deben dominar las fuerzas de repulsión. Los técnicos usan varias aproximaciones para estabilizar las partículas dispersas en líquidos. Los métodos más comunes para estabilizar partículas en suspensiones acuosas son las estructuras de red, electroestáticas y esteáricas. Recientemente, se realizaron informes que indican que la incorporación de nanoparticulas en los coloides mejora la estabilidad. [6]. La estabilización electroestática afecta las interacciones de la partícula debido a la distribución de las especies cargadas en el sistema y puede estar influenciada por varios factores tales como el pH y/o la concentración y el tipo de electrolito presente. Estas variables influyen fuertemente en las propiedades reológícas de las dispersiones y en la estabilidad. Un balance apropiado de las fuerzas de atracción y repulsión es el método primario para lograr una suspensión estable. La interacción electroestática entre las partículas coloidales está directamente relacionada al potencial zeta de la muestra. La magnitud del valor del potencial zeta es una indicación de la fuerza repulsiva electroestática presente y puede utilizarse para predecir la estabilidad a largo plazo del producto. [7]. El efecto del pH o de la fuerza iónica del medio o la concentración de un aditivo en el potencial zeta y la reología de la muestra pueden brindar información para maximizar la estabilidad de una formulación. Para que la reología experimental juegue un papel significativo en la predicción de la estabilidad de una dispersión de partículas en un medio liquido, la técnica de medición debe ser sensible a diferencias viscoelásticas extremadamente pequeñas o cambios fisicoquímicos y estructurales de la dispersión. Esto permite la efectiva investigación de la muestra en reposo. n Fase experimental y discusión de resultados En este artículo se analizará un estudio de dos dispersiones muy similares, que se denominarán muestra A y muestra B. La muestra A sedimenta mas rápidamente que la muestra B, pero ambas muestras sedimentan tan lentamente que habrá que esperar varios meses para observar alguna diferencia en la vida de estantería. El objetivo de este artículo es mostrar de qué manera la reología puede probar e identificar las diferencias de estabilidad. Ambas muestras son coloides de carga estabilizada con 25 % p/p de partículas dispersas. Se realizaron las siguientes mediciones: barridos de tiempo de frecuencia simple oscilatoria, barridos de amplitud y barridos de frecuencia en un rango de temperatura de 5 a 35°C. Finalmente, las curvas maestras están preparadas para extender el módulo de almacenamiento (G’∞) a la región plana de sus espectros viscoelásticos. Para poder analizar la estabilidad de la dispersión es crítico extender la región de alta frecuencia mas allá del límite superior típico de un reómetro rotacional (ver también Lionberger y 57 Figura 1: Barridos de Amplitud Figura 2: Resultados de barrido de frecuencia (O – Muestra A + - Muestra B) Russel [8] y Shikata y Pearson [9]). Más adelante se analizará este tema con mayor profundidad. Para generar curvas maestras es importante que no cambie la fase de la muestra dentro del rango de temperatura de medición. Para la identificación se debe inspeccionar la curva maestra y asegurar que el factor de cambio funcione igual de bien tanto en el almacenamiento como en los módulos de pérdida. La primera prueba a realizar en una muestra desconocida es el barrido de tiempo de frecuencia simple oscilatoria para determinar el tiempo que la muestra necesita para alcanzar y mantener la estabilidad. Este tiempo permitirá la reconstrucción de la estructura posible a partir de la carga de la muestra e indicará cualquier efecto de la evaporación apreciable del solvente. En las muestras A y B tardó tres minutos en alcanzar un valor G’ constante. Si la muestra no logra un valor estable no debería realizarse ninguna otra prueba. El siguiente ensayo es el barrido de amplitud. El propósito de este ensayo es determinar la región viscoelástica lineal (la cantidad de muestra que puede tensarse sin modificaciones en su estructura). La tensión donde G’ comienza a disminuir es la tensión crítica. Si la estructura intrínseca de una muestra debe ser medida a través de la reología, la prueba debe llevarse a cabo por debajo de esta tensión crítica. Se realizaron una serie de barridos de amplitud con rangos de temperatura de 5 a 35°C y frecuencias de 1 a 50 Hz. La Figura 1 muestra los barridos de amplitud de ambas muestras probadas a 25°C y 1 Hz. La tensión crítica es 0,22 unidades de tensión para ambas muestras. Se observan diferencias muy leves en las funciones del material, el almacenamiento y el módulo de pérdida. El siguiente es el barrido de frecuencia. Esta prueba es de fundamental interés porque G’ está directamente relacionada con las fuerzas inter particulares. A partir de la teoría desarrollada por Bergenholtz et al [10], la relación entre el modulo de región plana de alta frecuencia y el potencial de interacción está dada por la formula Zwanzig y Mountain [11]. La siguiente ecuación relaciona el modulo de almacenamiento de frecuencia alta, G’∞, con la interacción del potencial entre las partículas: de frecuencia; en términos más simples cuando es un número Deborah alto. Por lo tanto, para predecir una dispersión más estable hace falta un valor G’ elevado a frecuencias altas (por encima de 100 Hz). Los barridos de frecuencia en cada temperatura fueron realizados a una tensión de 0,1 unidades para continuar dentro de una región viscoelástica lineal. El objetivo de esta prueba es determinar las características de relajación de las unidades de flujo, partículas y flóculos, como así también sus interacciones complejas. En la Figura 2 se observa una comparación de la dependencia de la frecuencia de las funciones de los materiales para las muestras A y B. Estos gráficos son idénticos a 25°C. Las funciones viscoelásticas están dominadas por la reología de las unidades de fluidez de flóculos discretos. Los módulos de pérdida y de almacenamiento (G’ y G’’ respectivamente) se aproximan a una pendiente limitante sobre una escala doble logarítmica, definiendo la región final. Se está frente a una excepción cuando los flóculos se asocian formando una estructura de red, y en ese caso G’ se estanca a frecuencias decrecientes. Para las muestras A y B es necesario llevar a cabo pruebas que revelen las interacciones entre flóculos. Estos resultados se encuentran en la región plana del espectro viscoelástico donde las relajaciones brownianas disminuyen. En el caso de las unidades de flóculos sujetas a frecuencias bajas, la auto difusión originada por el movimiento de traslación browniana domina y previene un desorden ocasionado por los planos de corte. Es comprensible que la escala de tiempo para ordenar el estado de reposo de las unidades de fluidez sea de milisegundos o menor en el caso de las dispersiones acuosas de baja viscosidad. Por lo tanto, para determinar el efecto neto de las fuerzas de atracción y repulsión es necesario determinar el valor de los módulos de almacenamiento en la región plana de alta frecuencia (en el rango de 200 Hz para estas muestras). El único modo de lograrlo es con un algoritmo de superposición de tiempo y temperatura para calcular las curvas maestras para las dos muestras, A y B. Los cambios horizontales de los datos de frecuencia y temperatura a 35°C como temperatura de referencia revelan el motivo clave por el cual la fase dispersa de la muestra A sedimenta con mayor rapidez que en la muestra B. La Figura 3 muestra la curva maestra para la muestra B y la Tabla 1 presenta los datos comparativos. Se puede observar que los datos de frecuencia baja son casi idénticos para las muestras A y B. A medida que la frecuencia aumenta, se presentan diferencias mayores en los módulos de almacenamiento. A 200 Hz los módulos de almacenamiento G’ de la muestra B son de 48,59Pa y en la muestra A son de 39,97Pa. Esto significa que la muestra B tiene una carga de potencia de interacción de mayor efectividad que la muestra A, a partir de la fórmula Zwanzig y Mountain. donde a es el radio de la partícula, Ф es la fracción de volumen de las partículas, g(r) es la función de distribución radial y ψ (r) es el potencial de interacción entre las partículas. El módulo de almacenamiento refleja el potencial de interacción entre las partículas cuando la escala de tiempo de los tiempos de relajación de movimiento browniano de las partículas es prolongado en comparación con la escala de tiempo 58 Figura 3: Curva maestra para la muestra B Tabla 1: Resultados de la curva maestra Figura 4: Mediciones de cizallamiento Regular (O – Muestra A, + - Muestra B) n Conclusiones La reología experimental puede identificar rápidamente las funciones materiales importantes que controlan la estabilidad de las dispersiones liquidas siempre que el espectro viscoelástico cubra la región de plana de alta frecuencia. Para lograrlo deben producirse curvas maestras válidas. Para asegurar la validez de los análisis, es necesario realizar todas las mediciones en la región viscoelástica lineal en un nivel que este bien por debajo de la tensión critica. n Las mediciones del barrido de tasa estable también fueron llevadas a cabo como se muestra en la Figura 4. El comportamiento de las dos muestras es prácticamente el mismo a lo largo de la casi totalidad del rango de velocidad de cizallamiento de 0,1 a 500s-1. La relación CoxMertz (velocidad de cizallamiento relacionada con frecuencia oscilatoria) no necesariamente contiene las dispersiones porque los campos de cizallamiento regular y oscilatorio no tienen la misma estructura de unidad de fluidez. n Referencias 1. Firth, A.B. and Hunter, R.J., Journal of Colloid and Interface Science, Vol. 57, No.2, 248 (1976). 2. Van der Vorst, B. and coworkers, Rheol. Acta, Vol. 34, 274 (1995). 3. Behrens, S.H., Langmuir 2000, Vol.16, 2566 (1999). 4. Mewis, J., Advances in Colloid and Interface Science, Vol. 6, 173 (1976). 5. Russel, W.B., J. Rheology, Vol. 24, No.3, 287 (1980). 6. Tohver, V. and coworkers, www.pnas.org/cgi/doi/10. 1073 pnas.1510630987. 7. Puede encontrar más información sobre la medición y el uso del potencial zeta en www.malvern.com 8. Lionberger, R.A., and Russel, W.B., J. Rheology, Vol. 38, 1885 (1994). n Malvern Instruments Ltd Enigma Business Park • Grovewood Road Malvern • Worcestershire • UK • WR14 1XZ Tel: +44 (0)1684 892456 • Fax: +44 (0)1684 892789 n Malvern Instruments Worldwide Centros de Ventas y Servicio técnico en más de 50 países, para obtener más información visite www.malvern.com/contact 59 NUESTROS PROVEEDORES Agua Ultra Pura Sartorius Para el análisis de trazas con ICP-MS La Espectrometría de Masas de Plasma Inductivo Acoplado (ICP-MS) es una técnica de análisis multi-elemental altamente sofisticado que se utiliza cada vez más para el análisis de trazas en las industrias farmacéuticas, alimentos y bebidas, medioambiente así como en laboratorios analíticos. La técnica ICP-MS es capaz de analizar límites de detección de hasta sub-ppt (partes por trillón), las cuales sólo se pueden lograr en el ambiente de una sala limpia. Dado que el agua es utilizada en ensayos para análisis de trazas elementales con ICP-MS, es obvio que cualquier contaminación del agua puede comprometer un análisis entero. Por lo tanto, el agua utilizada deberá ser de unacalidad de grado analítico, por ejemplo agua ASTM Tipo I. El objetivo de la serie de ensayos analíticos descrito abajo es para asegurar que el agua ultra pura generada por los equipos de agua Arium Pro UV tiene un alto nivel de pureza (en este caso libre de elementos metálicos y no metálicos respectivamente) y que pueda ser utilizada sin ningún Problema para el análisis de elementos en trazas realizados por dispositivos ICP-MS. cluyendo el análisis de datos (de acuerdo a Worley and Kvech (1)). n El sistema de agua ultra pura El equipo Arium por UV (fig. 1) está diseñado para Producir agua ultrapura desde fuentes de agua pre tratada para eliminar trazas de contaminantes residuales. Para la purificación general de agua, son utilizadas tecnologías varias (destilación, ósmosis inversa, desionización, y electro desionización). La Producción de agua ultra pura con ARIUM requiere recirculación continua y flujo constante. Esto se lleva a cabo a través de un sistema de bombas con regulación de presión. La conductividad del agua de alimentación es medida a la entrada y en la salida de agua (Producto intermedio). El contenido de carbono orgánico total (TOC) es controlado por un monitor de TOC. El Proceso de purificación real depende del modelo de Arium y de la tecnología utilizada. Este sistema trabaja con dos conjuntos de cartuchos diferentes. Los cartuchos contienen carbón activado adsorbente especial y un lecho mixto de resinas especial de intercambio iónico diseñado para entregar agua de alta pureza con un bajo nivel de extractables. En el sistema, una lámpara UV, emite a 185 y 254 nm y es utilizada como agente germicida y oxidante. Un filtro final de 0,2 µm a la salida se instala para eliminar las partículas y bacterias del agua ultra pura, desde donde el agua ultra pura es dispensada. El proceso general descrito es representado en la figura 2. n El Método de Ensayo Los ensayos fueron llevados a cabo con el equipo de agua ultra pura SartoriusArium Pro UV en una campana de flujo laminar Clase 1. Las muestras fueron tomadas del punto de dispensación (sin el filtro final instalado) y fueron analizadas con un sistema ICP-MS 7500s (Agilent) (2). n Los Resultados Fig. 1: El sistema de agua ultra puraAriumPro UV n Principio de la tecnología ICP-MS La tecnología ICP se basa en los principios de la espectroscopia de emisión atómica. Las muestras son descompuestas en iones cargados positivamente basándose en su proporción masa/carga en un plasma de argón a alta temperatura pasando posteriormentea través de un espectrómetro de masas para la detección. En principio, el ICP-MS consiste de los siguientes pasos: preparación de la muestra y la introducción, generación del aerosol, ionización por una fuente de plasma de argón, separación de la masa, e identificación por el sistema de detección, in- 60 El análisis de trazas de elementos requiere reactivos y/o solventes y agua de alta pureza para asegurar que no altere la precisión del instrumento ICP-MS. Por ejemplo, el agua pura es necesaria para crear blancos de instrumentos, curvas de calibración, y soluciones estándares. El agua purificada también es necesaria para la preparación de muestras y por lo tanto debe estar libre de esos elementos que están bajo investigación. Las soluciones estándares de los elementos mencionados a continuación fueron inyectadas con un blanco del instrumento (valor cero) en un sistema ICP-MS para generar curvas de calibración. Las figuras 3 y 4 muestran ejemplos de las curvas de calibración de Plomo (fig. 3) y Cromo (fig. 4) como una función del valor de la señal trazada versus la concentración del elemento expresada en ppt. Fig. 2: Dibujo esquemático del principio operativo del sistema de agua ultra puraArium Pro UV Tabla 1: Análisis de trazas en el agua producida por el Arium Pro UV Elemento Límite de detección en ng/L (ppt) Concentración en Arium Pro UV del agua producida (0,055 µs/cm) Arsênico As 1 ppt Debajo del límite de detección Boro B 10 ppt Debajo del límite de detección Cadmio Cd 0,5 ppt Debajo del límite de detección Cromo Cr 0,5 ppt Debajo del límite de detección PlomoPb 0,5 ppt Debajo del límite de detección Mercurio Hg 5 ppt Debajo del límite de detección Selenio Se 10 ppt Debajo del límite de detección n Conclusión Figura 3: Curva de calibración típica para Plomo Pb (CPS = conteos por segundo) Se puede visualizar claramente que bajo las condiciones de ensayos dadas, las cantidades de los diferentes elementos en ng/L (ppt), especificados arriba, están por debajo de los límites de detección. Para alcanzar esta alta calidad de agua, todas las partes del sistema incluyendo las tuberías han sido diseñadas especialmente para la aplicación ICP-MS y son utilizadas para la producción en serie de los dispositivos Arium Pro UV. Los resultados obtenidos ilustran claramente que el agua ultra pura producida por Arium Pro UV es excepcionalmente adecuada para el uso con la tecnología ICP-MS ya que las fuentes de error o los riesgos de inexactitudes debido a la presencia de trazas de elementos mencionados, se han prevenido. Estas condiciones son un requisito para el análisis de trazas en industrias farmacéuticas y medioambientales así como en laboratorios analíticos. n Figura 4: Curva de calibración típica de Cromo Cr (CPS = conteos por segundo) n Agradecimientos Agradecimiento especial para ATU GmbH – AnalytikfürTechnikundUmwelt por la literatura y los resultados provistos, así como las discusiones relativas a la tecnología de ICP-MS descripta. n Referencias/Más información [1] Información publicada por Worley, Jenna and Kvech, Steve en Internet. [2] Reinstwasseranalyse am Auslauf der “Arium Pro UV Anlage“ ATU GmbH-Analytik für Technik und Umwelt, Herrenberg, 2011 n Autores Las concentraciones de cada elemento en las muestras ensayadas fueron calculadas a partir de las curvas correspondientes y se visualizan en la tabla 1. Dr. Elmar Herbig, Sartorius, Goettingen, Germany; M. Reutz and R. Braitmayer, ATU GmbH, Herrenberg, Germany n Contactos Sartorius Weighing Technologies GmBH- Goettingen, Germany [email protected] / www.sartorius.com 61 Aclarando conceptos DESCUBRIMIENTO CIENTÍFICO INVESTIGACIÓN, INVENCIÓN Y DESARROLLO DEL PROTOTIPO Acad. Dr. Héctor Giuliani “La investigación básica y la investigación aplicada no se contraponen. La investigación es una sola y se manifiesta a través de sus aplicaciones.” Luis Pasteur El conocimiento que tiene la humanidad sobre si misma y de las propiedades de todos los componentes que integran su entorno, en términos generales la Naturaleza, se basa en una búsqueda constante a través del método científico. Este conocimiento científico y el método para lograrlo constituyen las bases fundamentales de la Ciencia en un campo determinado. Por otro lado el trabajo que requiere adquirir dicho conocimiento mediante la metodología apropiada se denomina INVESTIGACION CIENTIFICA. El método científico, rasgo distintivo de la Ciencia, comprende una serie de acciones que transcurren a nivel de las siguientes etapas: primeramente, a partir de observaciones circunstanciales sobre un objeto material o ideal, se elabora una pegunta que a su vez determina ulteriores observaciones minuciosas sobre hechos referidos a la cuestión y su objeto; en la segunda se establece una hipótesis que explique los hechos de manera razonable; en la tercera se deducen de la hipótesis una serie de consecuencias lógicas que pueden y deben ser verificadas. Luego de tal verificación la hipótesis se toma como cierta y es susceptible de ser ampliada y modificada. El establecimiento de una hipótesis científica debidamente substanciada se denomina DESCUBRIMIENTO CIENTIFICO. Para ser considerado como tal, el descubrimiento científico debe reunir dos características: originalidad y solidez. Por originalidad se entiende su novedad respecto del marco general del conocimiento científico. Por solidez se comprende el grado de substanciación y verificación a que ha sido sometida la hipótesis, para que ella sea considerada con el carácter de descubrimiento científico. Es importante destacar que el conocimiento científico no es una verdad absoluta. Toda hipótesis, aun debidamente substanciada y tomada como conocimiento científico, continuará siendo verdadera hasta que otra hipótesis la reemplace o la modifique, demostrando su falsedad o limitación. En definitiva, la Ciencia como parte de la cultura, es una búsqueda permanente y perfectible. La ciencia, su contenido cognoscitivo y sus métodos, en cuanto a su difusión y utilización, constituyen un derecho inalienable de la humanidad toda y así ha sido declarado en la Carta constitutiva de la Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO). Por ello, la difusión del conocimiento y métodos científicos es inmediata y asequible a todas las sociedades y países. Estas peculiaridades de la Ciencia no solamente revisten un carácter ético-filosófico. La constitución de un fondo común de conocimientos y métodos nuevos posee además un fin eminentemente práctico dado que su libre y rápida difusión acelera y abarata el proceso de generación por parte de la comunidad científica internacional de otros conocimientos y metodologías aún más novedosos. La Ciencia tiene además de la originalidad y la solidez otra característica indesligable: la utilidad. Ésta última, que apunta a su significado e 62 impacto económico-social, reviste dos aspectos. Uno de ellos está referido a la formación de graduados universitarios por profesores que son científicos. El científico que genera conocimientos, está en la mejor situación para transmitirlos a los estudiantes. Estos serán los futuros profesionales que impulsarán al sistema productivo o que pasarán a retroalimentar el circuito docente y científico universitario. El otro aspecto de la utilidad de la Ciencia es servir de base para la generación de ideas con profundo contenido práctico que eventualmente se concretarán en una invención. Se entiende como invención una idea que tenga el carácter de nueva en la esfera técnica, que permita la solución de un problema específico en dicha esfera técnica y que sea aplicable por parte del sector productivo, junto con los procedimientos para su concreción. La invención es la base para la generación del prototipo, a través de un desarrollo tecnológico. Tal prototipo constituye el conjunto de elementos físicos o perceptibles que constituyen la invención. La etapa final en la utilización social de la invención comprende la evaluación de las necesidades del prototipo, su adaptación y su mejoramiento, así como su producción en la escala requerida para su utilización por parte de la comunidad. El elemento comunitario requerido para tales funciones es la Tecnología. La incorporación de un invento a la comunidad y el impacto del mismo a nivel de sus distintos elementos se denomina INNOVACIÒN TECNOLÓGICA. La tecnología, aun cuando pueda valerse del método científico para lograr sus objetivos, tiene un sentido netamente utilitario: el obtener en cantidad y calidad un producto, bien o servicio, de interés a la comunidad junto con el procedimiento requerido para su manufactura en escala y la descripción de su eventual uso. Dado que no existe un uso sin un producto que lo justifique y que éste último tampoco existe sin un procedimiento para su obtención, producto, procedimiento y uso poseen entre sí una relación indisoluble. Por lo expuesto anteriormente y desde el punto de vista de los derechos intelectuales, es claro que el descubrimiento científico lleva ligado el nombre de sus científicos autores. A ellos corresponde el reconocimiento académico de la comunidad científica en particular y de la humanidad en general. Esta última es la auténtica dueña y receptora del descubrimiento. En cuanto a la invención, el producto, junto con su procedimiento de obtención y el uso, dan derecho a sus legítimos dueños a impedir la producción y comercialización del producto. El grado de evolución que en la actualidad ha llegado el conocimiento y los métodos científicos, torna imposible la existencia de invenciones que no se basen en datos preexistentes y que han sido generados por la comunidad científica internacional y que por ello, éstos últimos, son propiedad de la humanidad.n H.G. Proyecto de Inyección Termoplásticos Maquina Inyectora – Parte I Aníbal H. San Juan [email protected] Con esta simple evaluación se puede saber la cantidad de bocas, según el tipo de máquina. El moldeo por inyección es una de las herramientas de fabricación más importantes en la industria del plástico desde que se patentó la máquina de tornillo reciprocante en 1956. En la evaluación preliminar de las inyectoras a usar hay dos variables fundamentales que son la fuerza de cierre en toneladas y la capacidad de inyección en gramos. Para calcular la Fuerza de Cierre (Fc) necesaria para una cavidad, se debe conocer la Superficie Proyectada de la pieza a inyectar en centímetros cuadrados y multiplicarla por una constante que depende de cada material a inyectar y se llama Presión Especifica del Material. Fc = Sup. Proy. x Pe Fc= Fuerza de Cierre Sup. Proy. = Superficie Proyectada Pe = Presión Especifica • La superficie proyectada es lo que se observa en el plano del cierre del molde, incluida la colada, y esto se debe a que el material inyectado ejerce una presión que se opone a la fuerza ejercida por el cierre de la máquina. • La presión específica del material a inyectar es una constante que depende del material. Algunos ejemplos de la misma se indican a continuación: Polietileno Alta y Baja Densidad – PeAD / PeBD = 200 Kg / Cm2 Polipropileno – PP = 200 Kg / Cm2 Poliestireno - Ps = 300 Kg / Cm2 PVC Rígido = 300 Kg / Cm2 Policarbonato – PC = 400 Kg / Cm2 3. El paso siguiente es evaluar los gramos de material a inyectar y para ello se debe calcular el peso de cada boca/cavidad, siguiendo dos alternativas: • Si se tiene una pieza similar, se pesa la misma para obtener el valor. • Si es una pieza nueva, se puede llegar al peso calculando el volumen de la misma y multiplicando este valor por el peso específico del material a inyectar que en el caso del PP es 0,9 Gs/Cm2. En base a esto el peso de una pieza sería: Peso = Masa x Pe = 150 Cm3 x 0.9 Gr/Cm2 = 135 Gr. 4. Corresponde en este momento efectuar un análisis similar al anterior pero con la capacidad de inyección de cada máquina: MAQUINA / CAPACIDAD DE INYECCION / BOCAS 80 Tn / 150 Gr / 1 Boca 120 Tn / 200 Gr / 1 Boca 200 Tn / 300 Gr / 2 Bocas 300 Tn / 500 Gr / 3 Bocas De esto se deduce que el máximo de bocas que se podrían hacer son 3 pero solo funcionaria en la inyectora de 300 Toneladas de Cierre. Si solo se hubiera tomado como referencia la Fuerza de Cierre, se podrían haber hecho 6 bocas pero no se podrían llenar, ya que únicamente se pueden inyectar 500 gramos. n Cálculo para una superficie proyectada de una pieza de Como se debe trabajar con un margen de seguridad (óptimo 80 %) la Fc necesaria para 3 bocas sería: 1. Fuerza de Cierre : Fc = cantidad de bocas x Fc para una boca = 3 x 50 tn = 150 Tn = 50 % exigencia Capacidad de Inyección = 3 x 135 Gr = 405 Gr = 81% exigencia 250 cm en PP 2 Fc para una boca /cavidad Fc = 250 Cm2 x 200 Kg/cm2 = 50000 Kg = 50 Tn. 2. El análisis para saber la cantidad de bocas a desarrollar, dependiendo del tipo de máquinas (80, 120, 200 y 300 Tn) está basado en la siguiente tabla: MAQUINA / CANTIDAD DE BOCAS 80 Toneladas = 1 Boca 120 Toneladas = 2 Bocas 200 Toneladas = 4 Bocas 300 Toneladas = 6 Bocas En este paso ya se está en condiciones de comenzar con el proyecto del molde de inyección. Nota: Esta presentación es una base de conocimiento y ayuda sobre la materia pues para profundizar en un proyecto se debe tener en cuenta otras condiciones como por ejemplo, las dimensiones entre columnas de la inyectora para asegurar que el molde entre en la misma, los canales y tipo de colada, etc. n 63 Información de Interés ANVISA RDC n° 49, cambios posteriores al registro de productos biológicos Algunas definiciones importantes según actualizaciones incorporadas hasta Mayo 2013 y Anexos sobre estudios de estabilidad I - Adyuvante: agente que auxilia o aumenta la acción del principio activo (sinergismo) o que afecta a su absorción, su mecanismo de acción, su metabolismo o su excreción (farmacocinética), buscando mejorar el efecto del medicamento. II - Alteración de nivel 1 (alteración menor): alteraciones posteriores al registro, de baja complejidad, que dispensan de la autorización previa de Anvisa para su implementación. III - Alteración de nivel 2 (alteración moderada): alteraciones posteriores, de complejidad media, que necesitan de autorización previa de Anvisa para su implementación. IV - Alteración de nivel 3 (alteración mayor): alteraciones posteriores al registro, de alta complejidad, que necesitan de autorización previa de Anvisa para su implementación. V - Estudio de acompañamiento: estudio de estabilidad realizado para asegurar que el producto farmacéutico mantiene sus características físicas, químicas, biológicas, y microbiológicas conforme a los resultados obtenidos en los estudios de estabilidad de larga duración. VI - Estudio de estabilidad acelerado: estudio proyectado para acelerar las degradaciones químicas, biológicas o los cambios físicos de un producto farmacéutico, en condiciones forzadas de almacenamiento. VII - Estudio de estabilidad de larga duración: estudio proyectado para la evaluación de las características físicas, químicas, biológicas y microbiológicas de un producto farmacéutico durante y, opcionalmente, después del plazo de validez esperado, cuyos resultados son usados para establecer o confirmar el plazo de validez estipulado y recomendar las condiciones de almacenamiento. VIII - Estudio de estabilidad de larga duración parcial: estudio de estabilidad de larga duración con resultados parciales, cuyos datos y resultados finales deberán ser sometidos a Anvisa en el histórico de los cambios en el producto. IX -Histórico de cambios del producto: formulario en el cual deberán ser registrados los cambios, alteraciones o inclusiones posteriores al registro de productos biológicos nuevos y productos biológicos, además de los resultados de los estudios de estabilidad concluidos. X - Cambios múltiples concomitantes: cambios o alteraciones posteriores al registro de productos biológicos derivados de una solicitud principal, de acuerdo con los propósitos de esta Resolución. XI - Cambios múltiples paralelos: cambios o alteraciones posteriores al registro de productos biológicos, directamente relacionados y que ocurren simultáneament.e XII - Producto biológico: medicamento biológico no nuevo o conocido, que contenga una molécula con actividad biológica conocida, ya registrado en el Brasil y que haya pasado por todas las etapas de fabricación (formulación, envase, liofilización, rotulado, embalaje, almacenamiento, control de calidad y liberación del lote de producto biológico para uso). XIII - Producto biológico a granel: producto biológico que haya completado todas las etapas de producción, formulado en su forma farmacéutica final, a granel, contenido en un recipiente único, estéril, si es aplicable, y liberado por el control de calidad del fabricante. 64 XIV - Producto biológico en su embalaje primario: producto biológico que haya completado todas las etapas de producción, formulado en su forma farmacéutica final, contenido en su recipiente final (embalaje primario), estéril, si es aplicable, sin incluir el proceso de rotulado y embalaje y liberado por el control de calidad del fabricante. XV - Producto biológico intermediario: producto farmacéutico, de origen biológico, parcialmente procesado, pasible de especificación y de cuantificación, que será sometido a las etapas subsiguientes de fabricación, antes de transformarse en un producto a granel. XVI - Producto biológico nuevo: medicamento biológico que contenga una molécula con actividad biológica conocida, aún no registrado en el Brasil y que haya pasado por todas las etapas de fabricación (formulación, envase, liofilización, rotulado, embalaje, almacenamiento, control de calidad y liberación del lote de medicamento biológico nuevo para uso). XVII - Producto biológico terminado: producto farmacéutico, de origen biológico, que haya completado todas las fases de producción, incluyendo el embalaje final, cuando el mismo confiera algún tipo de protección a producto.n ANEXO I: Condiciones para la realización de los estudios de estabilidad del principio activo, del producto intermediario y del producto a granel TEMPERATURA Y HUMEDAD ESTUDIO DE LARGA DURACIÓN TEMPERATURA Y HUMEDAD ESTUDIO ACELERADO 25 °C ± 2 °C/60% HR ± 5% HR o 30 °C ± 2 °C/65% HR ± 5% HR o 30 °C ± 2 °C/75% HR ± 5% HR 40°C ± 2°C/75% HR ± 5% HR 2°C - 8°C 25 °C ± 2 °C/60% HR ± 5% HR o 30 °C ± 2 °C/65% HR ± 5% HR o 30 °C ± 2 °C/75% HR ± 5% HR -20 °C Los parámetros de temperatura y humedad serán definidos por el fabricante ANEXO II: Condiciones para la realización de los estudios de estabilidad del producto terminado TEMPERATURA Y HUMEDAD ESTUDIO DE LARGA DURACIÓN TEMPERATURA Y HUMEDAD ESTUDIO ACELERADO 25 °C ± 2 °C/60% HR ± 5% HR (solo para productos de uso restringido en hospitales) o 30 °C ± 2 °C/75% HR ± 5% HR 40°C ± 2°C/75% HR ± 5% HR 5°C ± 3°C 25 °C ± 2 °C/60% HR ± 5% HR o 30 °C ± 2 °C/65% HR ± 5% HR o 30 °C ± 2 °C/75% HR ± 5% HR -20 °C Los parámetros de temperatura y humedad serán definidos por el fabricante ANEXO III: Condiciones para la realización de los estudios de estabilidad de productos de base acuosa TEMPERATURA Y HUMEDAD ESTUDIO DE LARGA DURACIÓN TEMPERATURA Y HUMEDAD ESTUDIO ACELERADO 25 °C ± 2 °C/40% HR ± 5% HR (solo para productos de uso restringido en hospitales) o 30 °C ± 2 °C/35% HR ± 5% HR 40°C ± 2°C y no más de 25% HR Gastos en Salud y Medicamentos Impacto de los Biosimilares Magdalena Nannei La OECD (Organisation for Economic Co-operation and Development), publicó el 27 de junio del 2013 un reporte sobre la evolución de los gastos en salud. Se observa en los mismos que luego de caer marcadamente en el año 2010, los gastos de salud en los países participantes en la OECD se mantuvieron chatos reflejando en los mismos la crisis económica. Ver Figura 1. Los países miembros son Alemania, Australia, Austria, Bélgica, Canadá, Corea, Chile, Dinamarca, Eslovenia, España, Estados Unidos, Estonia, Finlandia, Francia, Grecia, Holanda, Hungría, Islandia, Irlanda, Israel, Italia, Japón, Luxemburgo, México, Nueva Zelandia, Noruega, Polonia, Portugal, Reino Unido, República Checa, república de Eslovaquia, Suecia, Suiza y Turquía. Rusia tiene una posición especial y Brasil, China, India, Indonesia y Sudáfrica son aliados claves de la OECD. Se debe resaltar que los únicos países latinoamericanos participantes son Chile y México como miembros y Brasil como aliado clave. El informe de la OECD continúa aclarando que la reducción en los gastos de salud pública principalmente afectó al sector farmacéutico, ya que muchos países han tenido una seria elevación de los costos de medicamentos, y han reducido precios y cobertura y promovido el uso de genéricos. Ver Figura 2. Por otro lado se prevé que la inestabilidad de la Eurozona continuará afectando los gastos de salud pública, los cambios políticos en Italia y Alemania cambiarán el panorama de cuidados de la salud y todavía habrá dificultades para los manufactureros en India. Las buenas noticias son que China, Brasil y Rusia aún tienen crecimiento sostenido. Se espera que Latinoamérica avance en la armonización regulatoria y los biosimilares tendrán un fuerte impacto. A este respecto una noticia del 28 de junio ha impactado el mercado. Dos compañías ganaron el soporte de la Comisión Europea para vender versiones de un producto líder para la terapia frente a la artritis con ventas de 6 billones de dólares. Efectivamente, la EMA (European Medicines Agency) recomendó la autorización de los dos primeros anticuerpos monoclonales biosimilares. En su comunicado afirma: “Es la primera vez que el concepto de biosimilares ha sido aplicado con 65 suceso a una molécula de tal complejidad, resultando en la aprobación de la versión biosimilar del infliximab.” ¿Qué puede esperarse de estos genéricos “biosimilares”? La revista Forbes, hace pocos meses atrás indicó que prácticamente el 80% de las prescripciones que se efectuaron en el año 2011 fueron de productos genéricos (mercado americano) y que cuando un genérico llega al mercado se puede esperar una caída de precio en el medicamento original de alrededor del 30 %. Además la FDA tiene un sistema “abreviado” de aprobación para biosimilares. Es interesante observar la posición crítica de las compañías líderes e innovadoras al respecto. La ABPI (Association of the British Pharmaceutical Industry) que representa las compañías innovadoras indica que los productos de origen biológico probablemente serán los más importantes productos del mercado en términos económicos. Continúa indicando que los biosimilares nunca son copias exactas del producto de referencia y que se trata en efecto de un nuevo producto. Para esta organización, garantizar el registro debe estar basado en una estricta evaluación regulatoria, pero la evaluación de la sustitución y la intercambiabilidad no son parte de la evaluación científica actual. Para la ABPI, “todos los productos biotecnológicos tienen diferentes materiales de partida y procesos de manufactura lo que significa que tienen diferentes características que podrían no ser detectables en ensayos clínicos convencionales tales como reacciones adversas raras de los medicamentos, efectos especiales mediados por el sistema inmunológico.” Finalmente da sus recomendaciones que se resumen a continuación: Recomendación 1: Todas las prescripciones de productos biológicos/ biosimilares deberían ser con la marca registrada y no con el nombre genérico (INN) Recomendación 2: Un producto biológico o biosimilar debe ser sustituido solamente con el conocimiento y consentimiento del médico. Recomendación 3: Los pacientes deberían ser completamente informados sobre sus medicamentos y deberían ser consultados si se efectúan cambios en el tratamiento. Recomendación 4: El resumen de las características del producto medicinal debería indicar claramente la fuente de información contenida en él, tal como los estudios clínicos relevantes o que ha sido derivado de evidencia sobre el producto original. Recomendación 5: Los productos biosimilares deberían estar sujetos a un proceso de evaluación tecnológica de salud en el Reino Unido (se debe recordar que ABPI es una organización inglesa) 66 Administración Prevención/ Salud Pública Medicamentos Cuidados extensivos Cuidados externos Figura 2: Crecimiento promedio por función principal gastos en la salud pública países OECD, 2008-2011 Cuidados internos Figura 1: Velocidad de crecimiento de los gastos promedios de salud en término reales 2000 a 2011, públicos y total Fuente: OECD 2013 Figura 3: Crecimiento real del mercado biológico/moléculas pequeñas entre 2004 y 2009 y crecimiento esperado para el 2015. Recomendación 6: Las licitaciones que involucren productos biológicos no deberían buscar suplir un único producto. Recomendación 7: La extrapolación de las indicaciones de productos biosimilares debería ser evaluada caso por caso. El IMS (compañía líder en proveer estadísticas del mercado de salud) ha indicado que el volumen de biosimilares crece mientras que el de los productos de referencia ha mantenido su volumen pero ha disminuido en valor de mercado. Otro dato interesante es el de la Figura 3, en el cual se observa las ventas reales (a 2009) y las proyecciones de crecimiento para los productos con “moléculas pequeñas” y los productos biológicos. En el mismo se observa que el mercado de productos biológicos podría crecer hasta dos veces más rápido que el mercado de “moléculas pequeñas”. Por ejemplo, entre 2009 y 2015 se espera que el mercado de productos biológicos crezca un 78% mientras que el de “moléculas pequeñas” solo lo haría en un 25%. Es fácil concluir que se puede esperar otro tanto, incluso más a medida que venzan las patentes, del mercado de productos biosimilares. Por lo tanto, se puede esperar una decidida batalla entre los servicios de salud, las compañías innovadoras y los productos biosimilares, para sobrevivir frente a la desfavorable coyuntura actual en el mercado global (no debe olvidarse que en la Figura 3, los datos del 2015 podrían ser demasiado optimistas).n TAPA 138.indd 2 28/06/2013 12:07 Junio de 2013 | Nº 138 Nº 138 Junio de 2013 ISSN: 0558/1265 Uruguay 469, piso 2º B C1015ABI Buenos Aires, Argentina Tel: (54-11) 4373-0462 / 8900 (54-11) 4372-7389 Fax: (54-11) 4374-3630 www.safybi.org Revista de la Asociación Argentina de Farmacia y Bioquímica Industrial Revista Revista SAFYBI | Volumen 53 Motivación y eficiencia: motores del cambio de paradigma para la industria farmacéutica Visite nuestra revista online en www.safybi.org TAPA 138.indd 1 Conocimiento científico: SU impacto en las nuevas regulaciones 28/06/2013 12:07