Motores del caMbio de paradigMa para la industria

Transcripción

Motores del caMbio de paradigMa para la industria
Junio de 2013
|
Nº 138
Nº 138
Junio de 2013
ISSN: 0558/1265
Uruguay 469, piso 2º B
C1015ABI Buenos Aires,
Argentina
Tel: (54-11) 4373-0462 / 8900
(54-11) 4372-7389
Fax: (54-11) 4374-3630
www.safybi.org
Revista de la Asociación Argentina de Farmacia y Bioquímica Industrial
Revista
Revista SAFYBI
|
Volumen 53
Motivación y eficiencia:
motores del cambio de
paradigma para la industria
farmacéutica
Visite nuestra
revista
online en
www.safybi.org
TAPA 138.indd 1
Conocimiento científico:
SU impacto en las
nuevas regulaciones
28/06/2013 12:07
TAPA 138.indd 2
28/06/2013 12:07
STAFF
ASOCIACIÓN ARGENTINA DE FARMACIA
Y BIOQUÍMICA INDUSTRIAL
Uruguay 469 2º B
C1015ABI Bs. As., Argentina
Tel.: (54-11) 4373-0462 / 8900
Tel.: (54-11) 4372-7389
Fax: (54-11) 4374-3630
[email protected]
www.safybi.org
SUMARIO
4
•Editorial
6•Ética científica
8
•Descubren un fraude científico en
Noruega
9
•Gestion de calidad académica
COMISIÓN DIRECTIVA
Presidente: Dr. Federico E. Montes de Oca
Vicepresidente: Dr. Alberto D. García
Secretaria: Dra. Mirta B. Fariña
Prosecretaria: Dra. Susana B. Muñoz
Tesorero: Dr. Germán C. Fernández Otero
Protesorero: Dr. Guido M. Furer
Vocales Titulares:
Dr. Mariano Arismendi
Dr. Martín Dobovsek
Dra. Marta Fasanella
Dr. Esteban Fiore
Dr. Leonardo Fullone
Dr. Gastón Landsman
Vocales Suplentes:
Dr. Gustavo Guzner
Dr. Alejandro Meneghini
Dr. Luis Moyano
REVISTA SAFYBI
COMITÉ EDITOR
Director:
Dr. Héctor I. Giuliani
Consejo Asesor:
Dr: Alberto García
Dr. Federico Montes de Oca
Dra. Mirta B. Fariña
Dr. Alberto A. Grimoldi
Colabora en este Número:
Dra. Amalia B. Dellamea
Columnistas
Acad. Dr. Héctor Giuliani
Dr. Oscar Quattrocchi
Dr. Oscar Aversa
Dr. Fernando Iñón
Dr. Mario Lisnizer
Dra. Sandra Rumiano
Lic. Viviana Trejo
Corresponsal de Asuntos Universitarios:
Susana Muñoz
Administración:
Paula Mosquera
Fotografía:
Marcela Marinangeli
14•Una contribución para superar el
obstáculo epistemológico de la
experiencia primera en Química
Medicinal Computacional
16•Estudio bioquímico en ratones por
exposición subaguda al decocto de
Solidago Chilensis, especie autóctona
de relevancia medicinal
18•Estudio de estabilidad por tlc y hplc
de cápsulas que contienen extracto
seco de graviola
20•Preparación, caracterización y
estabilidad de complejos de inclusión
de compuestos bioactivos con
ciclodextrinas modificadas
Nuestras actividades
22•Curso: protocolo de calificación de
equipos de microbiología
•Validación de procesos y calidad por
diseño
•Recomendaciones de las nuevas
guías FDA y EMA para la Estrategia de
Validación de Productos y Procesos
23•Curso: Liderazgo y Coaching
•Curso-Taller / 07-08 Mayo 2013
Logística en Condiciones Reguladas
•Diseño y construcción de áreas
farmacéuticas
24•Análisis de riesgo en la industria
farmacéutica
VOL 53, No 138
prácticas de fabricación de la
PIC (Pharmaceutical inspection
Convention) PE 009-10
38•Nuevas normas de buenas prácticas
de fabricación para excipientes
farmacéuticos
40•Lista de excipientes de alto riesgo de
la SFDA
41•Determinación de impurezas
inorgánicas en productos
farmacéuticos
44•Resolución de problemas
48•¿Qué sucederá con las futuras
generaciones si el deterioro ecológico
continúa?
49•La incorporación de talento como
ventaja competitiva y la empleabilidad
de los profesionales de la industria
51•“Procesamiento Aséptico en la
Industria Biofarmacéutica”
52•Desarrollan un método eficaz
y económico para purificar la
eritropoyetina
53•Exitosa participación argentina en
la Convención Internacional de
Biotecnología de Chicago
54•El rincón del artista: Peter Ploder
55•Europa exigirá nuevos requisitos
a los fabricantes y distribuidores
de medicamentos para evitar las
falsificaciones
56•Reología de una dispersión
60•Agua Ultra Pura Sartorius
26•Primera edición del curso de posgrado
en biotecnología farmacéutica
62•Descubrimiento científico investigación, invención y desarrollo
del prototipo
28•Quick Response Manufacturing (QRM)
63•Proyecto de inyección Termoplásticos
32•Establecimiento de parámetros de
validación para procedimientos de
referencia aceptables
64•ANVISA RDC n° 49, cambios
posteriores al registro de productos
biológicos
34•Métodos de Disolución de la FDA
65•Gastos en Salud y Medicamentos Impacto de los Biosimilares
35•Modificaciones en las buenas
Arte y diagramación:
Virginia Gallino
Comercialización:
DKsiclo Group
Cel: (011) 15-4474-2426
[email protected]
Cordinación General:
Lic. Doris Kaplán
ISSN 0558-7265
Inscripta en el Registro Nacional de Propiedad Intelectual Nº 672-122
Publicación Trimestral de la Asociación Argentina de Farmacia y Bioquímica Industrial, Uruguay 469 2º B, Capital Federal.
Está incorporada al servicio de información bibliográfica internacional Pharmaceutical Abstracts Service.
SAFYBI es publicada en Buenos Aires. Circula sin cargo entre profesionales y Empresas asociadas a SAFYBI.
Las opiniones vertidas en artículos y traducciones son exclusiva responsabilidad de los Señores Autores.
Producción integral: DKsiclo Group e- mail: [email protected]
Preimpresión e impresión: Artes Gráficas Buschi
Foto de tapa: Laboratorio Novocap. Sector Recubrimiento, Lecho Fluido Vector.
3
Editorial
EDITORIAL
MISIÓN CUMPLIDA
Sin mirar atrás, para no lamentarnos de errores
cometidos, intentamos construir el futuro.
Y el futuro merece nuevas caras y nuevas ideas.
Aunque no haya motivos. Festejamos. Este es el número 36 de mi etapa como director de la revista;
Estos nueve años están lejos de los sesenta que
el año anterior cumplía Safybi, pero fueron suficientes para consolidar y disfrutar de la amistad, confraternidad, camaradería, solidaridad, de
aquellos colegas con quienes recorrimos distintos
laboratorios de la Industria Farmacéutica y los mismos
claustros universitarios, que hoy algunos siguen recorriendo
como docentes.
Esta ha sido para mí una experiencia enriquecedora. No puedo
dejar de recordar a quienes me precedieron en la dirección de
la revista, el Dr. Zenón Lugones, El Dr. Samuel Lamdan, La Dra.
Mirta Fariña y el Dr. Humberto Torriani de quienes he aprendido
el oficio. A los colaboradores, columnistas, a la secretaría de
Safybi, y a la coordinación de la Lic. Doris Kaplán que manejó los
hilos de la diagramación, la comercialización y la distribución
de la manera más eficiente y a los lectores a los cuales pude
llegar.
La información es uno de los recursos más valiosos con que
contamos para tomar decisiones, entender lo que sucede, realizar nuestras propias interpretaciones. Pero si bien vivimos en
una época en la que recibir y transmitir información
parece sencillo, existen dificultades para que la
gente acceda a datos precisos sobre los temas
que le interesan, especialmente los relacionados
con la salud. A veces, simplemente no están disponibles para el público porque aún están en etapa
de experimentación; pero en otras es el celo de los
científicos de publicitar sus logros. Vale la pena recordar las palabras del Primer Ministro de Salud Pública que tuvo
nuestro país, el Dr. Ramón Carrillo: “Solo sirven las conquistas
científicas sobre la salud si éstas son accesibles al pueblo”.
Ese fue uno de los objetivos, no sé si suficientemente logrado, que me guió en esta empresa. Trabajamos con un criterio abarcativo: no pensamos un medio de comunicación solo
para profesionales o para estudiantes sino para todo aquel que
sienta la necesidad de saber más.
En esta psedo despedida, deseo que quien me suceda en esta
comprometida tarea tenga tanto apoyo como el que este Director tuvo. Muchas gracias.
Acad. Héctor I. Giuliani
SUBCOMISIONES QUE SESIONAN REGULARMENTE EN SAFYBI
Subcomisión de Productos Médicos y Esterilización
Presidente: Maria Celeste González
email: [email protected]
Miembros:
Laura Brodecki
Arnaldo Buccianeri
Gustavo Enríquez
Nora Graña
Maria del Carmen Graziano
Alberto Grimoldi
Andrea Induni
Rita Metz
Susana Piccardo
Omar Silvetti
Natalia Sygiel
Isaac Szeinberg
Natalia Yusso
Subcomisión de Distribuidoras
y Operadores Logísticos
Subcomisión de Materias
Primas Farmacéuticas
Presidente: Susana Muñoz
email: [email protected]
Presidente: Dora Tombari
email: [email protected]
Miembros:
Liliana Kuharo
Luis Moyano
Santiago Santalla
Pamela Valdivia Aguilar
Miembros:
Melina Bisio
Hugo E. Del Río
Flavio Freiberg
Victoria Herr
Andrea R. Martínez
Subcomisión de Informática
Presidente: Mariano Arizmendi
Ética científica
Fragmento del libro INGEGNIERI DELLA VITA. Medicina e morale nell era del DNA”
(Sperling and Kupfer editori) cuyo autor es el premio Nobel de Medicina 1975,
Renato Dulbecco .
Desde el punto de vista ético la ciencia es por naturaleza
neutral. Un descubrimiento, una nueva teoría científica,
no es en sí misma ni buena ni mala, pero se hace buena o mala según como sea utilizada. Esta ambigüedad
de la investigación hace que muy a menudo la tarea del
científico sea sospechosa a los ojos de la nueva teoría
científica, no es en sí misma ni buena ni mala, pero se hace buena o
mala según como sea utilizada. Esta ambigüedad de la investigación
hace que muy a menudo la tarea del científico sea sospechosa a los
ojos de la gente.
El 14 de mayo de 1796, El Dr. Edward Jenner, propulsor de la vacunación, inoculó el virus de la viruela a un niño de ocho años. El “cobayo
humano” resultó inmune, demostrando en su propia piel la eficacia
de la terapia, abriendo así el camino a la victoria definitiva sobre el
terrible mal. En 1800, Walter Reed, un médico militar americano, para
entender la génesis y la transmisión de la fiebre amarilla, reclutó voluntarios a los que hizo picar por mosquitos. De tal manera, llegó a demostrar que la enfermedad, como se sospechaba, era efectivamente
transmitida por estos insectos, pero los voluntarios pagaron caro por
el descubrimiento..
Hoy, tales métodos serían condenados por toda la comunidad y aún
más, fortalecerían los rigores del código penal. El uso de “cobayos humanos” está absolutamente prohibido, a menos que se trate de enfermos sin esperanza, que voluntariamente se someten al experimento
como última chance de curación.
Como se ve, un mismo comportamiento, también en el campo científico, puede ser acertado o equivocado desde el punto de vista ético
según el país y la época histórica en que se realiza. La ética tiene
la función de relacionar los sentimientos y los comportamientos del
individuo, para favorecer al máximo los objetivos y las expectativas de
todos. En esencia, son reglas dictadas por la mente humana, no leyes
universales y eternas promulgadas por alguna entidad trascendente.
Uno de los aspectos más importantes de la ética aplicada a la ciencia
es la evaluación y la prevención de los peligros propios de la actividad
científica.
Hasta hace un siglo, los científicos se consideraban de alguna manera un cuerpo monolítico, una suerte de comunidad extraterritorial,
completamente autónoma y soberana, ajena al imperio de la ley y
de la moral. Era una consecuencia de las doctrinas positivistas, que
consideraban el progreso del conocimiento un bien absoluto, preservable a cualquier costo. En el caso que surgiera cualquier problema ético o alguna controversia a dirimir, la solución debía ser
encontrada en el seno de la comunidad científica sin intervención de
autoridades externas.
La primera brecha de la autorreglamentación en el cenáculo de la
ciencia, fue abierta por la bomba de Hiroshima y por la crisis de conciencia que ella desencadenó entre los físicos que habían puesto a
punto esta arma mortífera (hace algunos años, setenta de los cien
veteranos del proyecto Manhattan firmaron un manifiesto a favor del
desarme nuclear). Pero el golpe de gracia fue dado por los biólogos
ocupados en la manipulación del DNA. Y en esa oportunidad no hubo
necesidad de bombas, incidentes, requisitorias periodísticas o judiciales. Los científicos mismos dieron la alarma. Desde ese cambio de
mentalidad el problema fue más fácil. En la década del ’70 aparecie-
6
ron los comités de ensayos y los científicos comenzaron
a legislar en materia de seguridad biológica.
No tenemos la más lejana idea de lo que podría suceder si se alteran los equilibrios de la biosfera liberando
microorganismos antes inexistentes, producidos artificialmente en el laboratorio. Podría no suceder nada,
aparentemente por meses o por años y luego explotar de golpe algo
irreparable. Es una apuesta con muchas incógnitas. Desde hace miles
de años, el hombre lucha para disfrutar los recursos del planeta, materias primas, energía, plantas, animales con el fin de maximizar su
propio bienestar. La concepción bíblica y luego cristiana del universo
ha consagrado solemnemente esta posición de dominio de nuestra
especie “Recuperamos el derecho original, que Dios nos ha dado, de
disponer de la naturaleza”. exhortaba el filósofo inglés Francisco Bacón en los comienzos de los años 1600. Y del otro lado de la Mancha
respondía Cartesio: “En lo creado no existe nada que no tenga para
nosotros alguna utilidad”. En vano el contemporáneo Montaigne decía:
“tenemos el deber de tratar de modo humano no solo a los animales
vivientes, sino también a las plantas y a los árboles”. Su voz permaneció mucho tiempo aislada. Se puede decir que la visión antropométrica
del mundo prevaleció en la cultura occidental hasta nuestros días.
Solo en los años recientes hemos aprendido que la naturaleza no
puede ser violentada impunemente, y que el equilibrio roto termina
por restablecerse a costa nuestra, en forma de aluviones, catástrofes,
contaminación o radioactividad. Los movimientos ecologistas responden a exigencias indiscutibles, absolutamente evidentes.
También los científicos deberían dar prueba de responsabilidad: no
pueden actuar con ligereza cuando está en juego el equilibrio ambiental. Deberían calcular las consecuencias de las propias acciones
y cuando esto no es posible, en presencia de riesgos imprevisibles,
renunciar a la experimentación.
Todo comenzó en 1988, cuando la prestigiosa revista The Lancet publicó un artículo científico en el que Andrew Wakefield, investigador
del Royal Free Medical School, de Londres, decía haber hallado un
vínculo entre la vacuna triple viral y un nuevo síndrome que combinaba autismo con una grave enfermedad gastrointestinal. Bastó
una conferencia de prensa, en la que el elocuente Wakefield sugirió que la vacuna podía causar autismo, para que los movimientos
antivacunas, hasta ese entonces bastante endebles en virtud de la
carencia de evidencias, salieran a convencer al público de que todas
las vacunas enfermaban. El artículo de Wakefield creó una controversia mundial sobre la vacuna contra el sarampión, las paperas y la
rubeola, al afirmar que causaba autismo. Esto llevó a que se redujera
el uso de la vacuna en Inglaterra, Estados Unidos y otros países,
recordaba, varios años después, la revista The New England Journal
of Medicine.
En 2011, una investigación llevada adelante por el periodista Brian
Deer y publicada en la revista British Medical Journal, develó cómo
y porque Wakefield fraguó las evidencias que respaldaron su grito de
alarma en torno a la triple viral. Wakefield, básicamente, estaba detrás
del desarrollo de una vacuna “segura” y de un kit diagnóstico para de-
tectar el nuevo síndrome. Sus intereses eran puramente comerciales y
su artículo científico era un fraude.
Pero el daño aún persiste. Todavía no son pocos los grupos antivacunas que siguen ciegamente agitando el fantasma del autismo. En
países como Estados Unidos o Inglaterra, que antes de la publicación
de Wakefield ostentaban tasas de vacunación envidiables, han surgido
brotes de las afecciones incluidas en la triple viral, como resultado de
la menor vacunación.
Y revisando mis archivos encontramos este otro caso decididamente
lamentable.
Descubren un fraude científico en Noruega
Oslo (AP).- Ayer comenzó a deliberar una comisión independiente que
analiza una fraudulenta investigación sobre cáncer realizada por un
científico noruego. El panel de expertos revisará los estudios realizados por el investigador que la semana pasada admitió haber fraguado
los datos sobre los que basó un estudio que afirmaba que ciertas drogas antiinflamatorias reducían el riesgo de cáncer de boca.
Se sospecha que 1000 de los pacientes sobre los que se basó el
estudio cuyas conclusiones publicó la revista médica The Lancet
en octubre pasado no existen. El Hospital Noruego Radium de
Oslo, donde se realizó el estudio, se negó a dar a conocer la
identidad del investigador cuestionado. Sin embargo, la misma
revista científica The Lancet informó que se trata de Jon Subdo,
de 44 años.
La comisión no solo estudiará el estudio publicado en The Lancet, sino
también todos los trabajos previos del investigador.
“Esto es muy difícil para la ciencia noruega, declaró Anders Ekbom,
profesor del Instituto Karolinska, que dirigirá a la comisión investiga-
8
Se dice que “cuando los hechos hablan, la razón
calla porque la razón es hija de los hechos y no
los hechos hijos de la razón”. O no?
Acad. Héctor I. Giuliani
dora. Plantea un problema aún mayor sobre las bases de datos con la
que se cuenta”.
Un panel médico de Oslo y del condado de Akershus informó que
abrirá un juicio disciplinario contra el investigador y contra el hospital
donde realizó sus investigaciones. El estudio fraudulento afirmaba que
medicamentos analgésicos tradicionales, como el ibuprofeno y el naproxeno, eran capaces de reducir el cáncer de boca, pero aumentaban
el riesgo de padecer problemas cardíacos. Subdo, se negó a hacer
declaraciones a la prensa.
Este caso firmado por Doug Mellgren fue publicado en un matutino de
Buenos Aires el 20 de enero de 2006. n
JORFyBI - Garantía de Calidad
GESTIÓN DE CALIDAD ACADÉMICA
UTILIZACIÓN DE UNA PLATAFORMA WEB PARA LA
ADMINISTRACIÓN DE UN SISTEMA DE GESTIÓN DE
CALIDAD DE UNA MATERIA DE POSGRADO SEGÚN
NORMA IRAM ISO 9001:2008
Martín Dobovšek
Profesor adjunto de la Cátedra de Farmacotecnia II, Facultad de Farmacia y Bioquímica, Universidad de
Buenos Aires. Farmacéutico. Bioquímico. Máster en Dirección de Empresas (Deusto-USAL), Argentina.
n INTRODUCCIÓN
Los Sistemas de Gestión de calidad tienen como particularidad su
base documentaria y la existencia de registros como evidencias de su
implementación y su efectividad. El volumen de esta información está
asociado al nivel de actividades que debe administrar una organización.
Esto implica que existen situaciones donde el mantenimiento y la
operación de estos sistemas puede resultar problemática por la
ingente cantidad de recursos administrativos que requiere asignar.
En el presente trabajo se presenta una alternativa efectiva en cuanto a
la administración, mantenimiento, difusión, capacitación del personal
involucrado y repositorio de registros de un sistema de gestión de calidad ya existente de la materia Dirección de Empresas (en trámite de
actualización de la materia “Organización, Economía y Mercadotecnia
Farmacéutica”) de las carreras de especialización de la Facultad de
Farmacia y Bioquímica (UBA). Asimismo, a través de esta implementación, que es base del temario en la enseñanza de esta carrera de
posgrado, los alumnos pueden ver los resultados de la metodología
empleada.
n MATERIALES Y MÉTODOS
El sistema de gestión de calidad de la materia Dirección de Empresas
se encuentra alineado según la norma ISO IRAM 9001:2008 1. Consta
de su Manual de Calidad, los documentos obligatorios requeridos por
la norma además de los documentos propios necesarios para la gestión de la materia. Las evidencias de su operación la conforman los
registros asociados.
Se utiliza la plataforma Claroline 2 en su versión 1.8 estable de la UCL
(Universidad Católica de Louvain 3, Bélgica). Se trata de un software
de código abierto (libre) muy bien documentado además de soporte.
La evaluación evidencia excelente estabilidad, cantidad de usuarios
y número de instalaciones internacionales. Requiere una estructura
LAMP o XAMP (servidor web Apache 4, PHP 5 y MySQL 6. El servidor
en internet se encuentra sobre una base FREEBSD 7. Se instala además un espejo en plataforma virtual VMWARE 8 en sistema operativo
Debian 9 lenny con Vmware Tools para su gestión. Esta virtualización
permite una rápida clonación del servidor así como su mantenimiento
y en caso de ser necesario, la seguridad de sus contenidos al poder
tener un servidor en la red interna de la organización.
n RESULTADOS
Se crean perfiles de usuarios y responsables para el curso. El perfil de administración de la plataforma posee todos los permisos habilitados. (fig. 1)
Mediante la herramienta “Documentos” se publicaron los documentos
del sistema de gestión (fig. 2). Se crearon árboles de directorio para
documentos vigentes, aprobados no vigentes y obsoletos. En ellos se
publicaron los documentos controlados, que en el caso de esta organización se encuentran editados en Flash. Los registros se archivan
en directorios específicos de esta herramienta en el formato original
(Word, txt, pdf, GIF, TIFF, etc.). Se oculta o habilita individualmente
cada archivo para su visualización o no por parte de los usuarios.
La evaluación de la capacitación del personal involucrado, así como
el seguimiento y registro de dichas actividades se realizó mediante la
herramienta “Cuestionarios” (fig.3). El usuario accede a las evaluaciones en línea (fig. 4). La verificación del estado de entrenamiento y
resultados se consulta con el rol de permisos correspondiente (fig. 5).
Se crearon rutas de entrenamiento específicas mediante la herramienta “Secuencias de aprendizaje” (fig. 6). Se asociaron los contenidos
(ej. documentos, procedimientos, cuestionarios asociados, videos) a
Figura 1
9
Figura 2
Figura 3
Figura 4
un determinado entrenamiento que se requiere para una posición, proceso o persona. El capacitado al ingresar al sitio se encuentra con una
guía específica del proceso de entrenamiento donde los contenidos y
las evaluaciones se encuentran ordenados y los registros de sus actividades y resultados son automáticamente archivados y monitoreados
(fig. 7).
Se verifica el estado de la capacitación de un determinado usuario
por consulta con el rol correspondiente. Se activó un nivel mínimo de
10
resultados para impedir el avance del entrenamiento a etapas siguientes hasta que el mismo sea superado por el capacitado (en este caso
100% correcto).
Se crearon equipos de personas asociados a procesos mediante la
herramienta “Grupos” (fig. 8). Se crearon a su vez repositorios específicos de documentos y foros para la discusión del contenido de un
determinado documento en emisión.
La difusión de información relacionada a la plataforma se realizó me-
Figura 5
Figura 6
Figura 7
11
Figura 8
Figura 9
La utilización de plataformas educativas para la gestión de sistemas
de gestión permitió lograr una efectiva reducción en la asignación
de recursos para su funcionamiento así como mejorar la actividad y
eficacia de gestión. La gran flexibilidad de estos sistemas así como
las herramientas que poseen permitió un diseño de administración
particularizado, en este caso, a la materia de posgrado.
El trabajo presentado es una evidencia práctica de cómo poder utilizar herramientas existentes en aplicaciones específicas orientadas a
su difusión y administración. La efectividad en la difusión del sistema
está solucionada intrínsecamente en su diseño dada su plataforma
www y su fácil acceso a través de un navegador. La herramienta
Cuestionarios permitió agilizar la evaluación de la capacitación del
personal involucrado, así como el seguimiento y registro de dichas
actividades. El resultado final es un seguimiento facilitado de quién
fue entrenado en qué contenido, el resultado de esa evaluación, y, la
posibilidad de repetir esas capacitaciones y evaluaciones sin la necesidad de una nueva intervención directa del entrenador, como en las
prácticas convencionales.n
n Bibliografía
“Implementación de un sistema de calidad en una Carrera de Especialización
Farmacéutica”, Manco, K., Dobovsek, M. CIDUI – Congreso Internacional Docencia Universitaria e Innovación. Barcelona – España. Mayo 2010
1 ISO9001:2008, International Organization for Standardization, http://www.iso.org
2 http://www.claroline.net
3 http://www.uclouvain.be/
4 http://www.apache.org
5 http://www.php.org
6 http://www.mysql.com
7 http://www.freebsd.org/
8 http://www.vmware.com
9 http://www.debian.org
diante la herramienta “Anuncios” (ej. la colocación en vigencia o entrenamiento de un determinado documento) (fig. 9). El envío se realiza
mediante un servidor de mail (MTA o SMPTE). Se informa a la totalidad
o sólo a personas o grupos seleccionados respecto de determinadas
situaciones, por ejemplo, la publicación del documento de un proceso
específico con destinatarios a los involucrados en su ejecución.
n CONCLUSIONES
12
JORFyBI - Asuntos Regulatorios Farmacéuticos
y Asuntos Educativos Farmacéuticos
Una contribución para superar el obstáculo
Epistemológico de la experiencia primera en
Química Medicinal Computacional
Graciela Pinto Vitorino, Alejandra E. Apesteguía, Alfio A. Zambon
Química Medicinal. Departamento de Farmacia, Facultad de Ciencias Naturales, Universidad Nacional de la
Patagonia San Juan Bosco, Km. 4, 9000, Comodoro Rivadavia, Chubut.
n Resumen
El uso de la computadora como herramienta auxiliar de la práctica docente,
ha crecido de manera exponencial en los últimos años. En el caso particular
de la enseñanza de la Química Medicinal, programas como Hyperchem permiten, entre otras aplicaciones, que alumno grafique y observe las estructuras moleculares de los fármacos de forma tridimensional, y las superponga
identificando los grupos farmacofóricos.
Con el transcurso del tiempo, observamos que los alumnos grafican fácilmente las estructuras químicas en el entorno virtual, que incorporan
rápidamente las pautas “técnicas” del empleo del software, pero que,
contrariamente les resulta dificultoso por ejemplo: ubicar y modificar ángulos diedros, pensar en repulsión entre átomos, identificar problemas de
impedimento estérico, entre otras cosas.
Uno de los grandes aportes que realizó Gastón Bachelard a la teoría del conocimiento, fue el de “obstáculo epistemológico”. Los obstáculos epistemológicos son dificultades psicológicas que no permiten una correcta apropiación
del conocimiento. No se refieren a los elementos externos que intervienen en
el proceso del conocimiento científico, como la complejidad o dificultad para
captarlo, sino a las condiciones internas que dificultan al sujeto acceder al
conocimiento, uno de esos obstáculos es el de la experiencia primera.
Considerando que para los alumnos a los que está destinada la práctica,
la computadora y el entorno gráfico virtual, forman parte de un “mundo”
utilizado de manera cotidiana en su vida de relación para actividades como
la comunicación o el esparcimiento, inferimos que les resulta difícil sustraerse de está situación, para emplear el recurso como medio para aplicar
o comprender conceptos teóricos. En el empleo usual de la computadora,
no es común realizar actividades que puedan compararse con nociones
como la rotación de enlaces, repulsión de cargas, restricciones estéricas,
etc. Podemos interpretar que estamos frente a una manifestación concreta del obstáculo epistemológico de la experiencia primera, obstáculo
que podemos considerar les impide a los alumnos mirar el fenómeno con
ojos científicos. Buscando contribuir a la superación de estas dificultades
implementamos la modificación que presentamos en este trabajo.
n Materiales y Métodos
Como medio para tratar de superar las dificultades observadas organizamos e implementamos un nuevo trabajo práctico. Para ello, en una primera parte del trabajo práctico se solicitó a los alumnos que:
1 grafiquen las estructuras químicas en papel,
2 armen los modelos moleculares clásicos
3 empleen el programa computacional Hyperchem para:
3.1 graficar las estructuras,
3.2 realizar cálculos de energía y determinar la/s estructura/s más
estable/s.
Con estas actividades buscamos que el alumno recuerde y relacione
conceptos teóricos previos, tratando de fomentar una actitud que lo
predisponga a la apropiación del conocimiento científico.
En una segunda parte del trabajo práctico buscamos reforzar los conceptos teóricos específicos de la asignatura, inherentes al establecimiento de
las relaciones entre la estructura molecular y la actividad biológica de los
fármacos, tales como:
• Interpretación del empleo de análogos estructuralmente rígidos para
determinar conformaciones activas de los fármacos,
14
• Análisis de las estructuras de fármacos agonistas y antagonistas.
Farmacóforo.
• Visualización de receptores mediante el empleo del software DeepView
• Identificación de sitios de unión fármaco-receptor
n Resultados
En particular, en el caso del uso del software, presuponíamos y lo comprobamos en la práctica, que la graficación en papel y el armado de los
modelos, prepara al alumno para identificar relaciones espaciales en la
molécula, lo que resulta muy difícil de observar e interpretar cuando se
trabaja directamente con la computadora. Consideramos que la secuencia
implementada contribuye a la superación del obstáculo epistemológico.
La modificación efectuada ha permitido a los alumnos, fijar algunos conceptos previos e interpretar mejor los nuevos. Este trabajo práctico se incorporará al cronograma de actividades del próximo ciclo lectivo.
n Conclusiones
Resulta destacable, que los programas computacionales que actualmente
se utilizan de manera rutinaria, tienen un entorno amigable, y no requieren
de un gran conocimiento previo para comenzar a utilizarlos. Esto puede
presentar riesgos respecto a la interpretación de los resultados obtenidos,
ya que permiten realizar una práctica, sin necesariamente haberse apropiado de los conocimientos necesarios para interpretarla.
Bachelard identifica diez obstáculos epistemológicos; el primer obstáculo a
superar es el de la experiencia primera; está experiencia esta conformada
de informaciones que se perciben y se alojan en el espíritu generalmente en
los primeros años de la vida intelectual y esas informaciones no se pudieron
someter a critica alguna, pues el espíritu se encontraba altamente voluble
dado que se encontraba sumergido en la inconsciencia del ignorar; al no
sufrir critica alguna estas experiencias primeras pasan sin tamizar a convertirse en verdades primarias frente a las que es imposible crear nuevos
conocimientos que vayan en contra de las mismas. [Bachelard, G. 2007].
En esta propuesta, buscamos contribuir a la superación del obstáculo
identificado mediante la estrategia de comenzar con las representaciones
en papel de las estructuras químicas, continuar con el armado de modelos
moleculares físicos, y luego abordar la herramienta computacional. Esta
secuencia pretende facilitar el proceso de apropiación del conocimiento
buscado, ya que fomenta entre otras cosas, la búsqueda de analogías
con los modelos moleculares físicos, proceso que contribuye a superar el obstáculo de la experiencia primera ante la práctica con la computadora, y permite considerar al entorno gráfico virtual, no como un juego
social, sino además, como una herramienta válida para la apropiación de
conocimientos científicos.n
n Bibliografía:
Bachelard, G. La Formación del Espíritu Científico. Contribución a un psicoanálisis del conocimiento objetivo. 26° edición. Siglo XXI Editores. Méjico. 2007.
Meinardi, E.; González Galli, L.; Revel Chion, A.; Plaza, M.V. Educar en Ciencias.
Editorial Paidós. Argentina. 2010.
Carvalho, I., Pupo, M.T., Borges, A.D.L., Bernardes, L. A laboratory course in
medicinal chemistry introducing Molecular modeling. Tomado de: ww.iupac.org/
publications/cd/medicinal_chemistry/, consultado en junio de 2011.
Lemke Thomas et. al. Foye´s Principles of Medicinal Chemistry. 6ª edición.
Lemke Thomas L, editor. USA: Editorial Lippincott Williams & Wilkins; 2008.
JORFyBI - Fitoterapia: Activos de origen vegetal / Productos Fitoterápicos
ESTUDIO BIOQUÍMICO EN RATONES POR
EXPOSICIÓN SUBAGUDA AL DECOCTO
DE Solidago chilensis, ESPECIE
AUTÓCTONA DE RELEVANCIA MEDICINAL
Alejandro Bucciarelli, Cristina Bras, Sergio Domínguez, Alejandra Minetti, Mario I. Skliar
Departamento de Biología, Bioquímica y Farmacia, Universidad Nacional del Sur.
n Resumen
Solidago chilensis (Asteraceae), conocida como vara dorada, vara de
oro”, “arnica do campo”, “fulel”, es una especie nativa tradicionalmente empleada con diferentes fines medicinales tales como anticefalálgico, febrífugo, calmante, vulnerario, digestivo, antigonorreico,
diurético y para el tratamiento de afecciones renales y heridas.
Algunos estudios experimentales han demostrado su actividad antibacteriana, antiviral, antiséptica, hipotensora, antiinflamatoria,
antiagregante plaquetaria y gastroprotectora en diferentes modelos
animales.
Sin embargo, al igual que muchas plantas autóctonas, esta especie
no ha sido investigada en forma integral para ser considerada como
materia prima de medicamentos, existiendo nulas o escasas investigaciones toxicológicas. Son numerosas las drogas vegetales que
proviniendo de estas plantas, y a las cuales recurre la población por
su reconocido uso tradicional, cuentan con escasa información que
permita asegurar su inocuidad. Esta situación es relevante en países
como la Argentina, donde un elevado porcentaje de la población se
encuentra por debajo de la línea de pobreza y no tiene acceso a medicamentos esenciales o el mismo se encuentra restringido.
Teniendo en cuenta el uso etnomedicinal de la planta, y dado que
no existe información referida a estudios toxicológicos, el objetivo
del presente trabajo fue evaluar por primera vez el efecto de la administración subaguda del extracto de la planta por vía oral sobre
parámetros bioquímicos en ratones.
n Materiales y Métodos
El material vegetal fresco correspondiente a las inflorescencias de
S. chilensis fue desecado en estufa a 40 °C. El decocto del material
vegetal se obtuvo por extracción con agua mantenida en ebullición
durante 20 min (2X, 1:10 p/v, rendimiento: 22 %). Los extractos se
reunieron, filtraron y llevaron a sequedad a presión reducida.
Se utilizaron ratones CF-1 de ambos sexos, de 8 semanas de edad,
con un peso entre 30 y 40 g, mantenidos bajo las mismas condiciones
de temperatura (22° ± 1 ºC), humedad (70 %) y ciclos de luz/oscuridad
de 12 h, a los que se les suministró agua y alimento ad libitum. El
cuidado y tratamiento de los animales se realizó teniendo en cuenta
las recomendaciones de la Guía para el Cuidado y Uso de los Animales
de Laboratorio. El estudio toxicológico se llevó a cabo siguiendo las
pautas de la OECD para estudios de toxicidad oral a dosis repetidas en
roedores. Los animales se distribuyeron aleatoriamente en 2 grupos
(control y tratado) de 16 animales cada uno (8 hembras y 8 machos).
El decocto de la planta fue incorporado al alimento y éste fue posteriormente administrado durante 28 días al grupo tratado. La dosis
recibida por cada animal fue de 1000 mg/kg de peso/día, dosis límite
establecida para ensayos de toxicidad subaguda por vía oral. Para
ello, previo a la exposición y durante la misma se monitorearon el
consumo y el peso corporal de todos los animales para administrar
una dosis constante de extracto. Los animales del grupo control recibieron dieta estándar. Al finalizar la exposición todos los animales
Tabla 1. Parámetros bioquímicos correspondientes a los animales controles y tratados con el extracto de Solidago chilensis.
Parámetro
Control
f
♀♂
Glucosa (mg/dl)
294,6 ± 14,7
Creatinina (mg/dl)
0,56 ± 0,02
AST (mg/dl)
110,5 ± 7,9
ALT (mg/dl)
27,8 ± 1,4
Urea (mg/dl)
60,8 ± 2,2
Colesterol (mg/dl)
75,8 ± 4,4
m
f
♀♂
370,8 ± 5,6
340,0 ± 16,0
0,54 ± 0,03
0,54 ± 0,04
102,3 ± 9,5
120,8 ± 9,9
40,3 ± 4,4
24,3 ± 1,8
57,5 ± 3,2
50,5 ± 3,1**
105,8 ± 5,7
74,4 ± 6,3
Datos expresados como Media ± EEM;
AST: aspartato aminotransferasa; ALT: alanina aminotrasferasa;
** p<0,01 respecto al control (ANOVA de dos vías seguido por el test t de Student).
16
Tratado
m
408,3 ± 27,1
0,54 ± 0,04
90,4 ± 5,2
34,9 ± 3,6
45,9 ± 1,3**
111,3 ± 7,7
fueron sacrificados y se obtuvieron muestras sanguíneas mediante
punción cardíaca para el estudio de los parámetros bioquímicos. Se
utilizó heparina como anticoagulante (30 UI/ml). Las muestras fueron
centrifugadas a 1500 x g durante 1 min para obtener el plasma. Para
la evaluación de la función hepática se determinaron las enzimas
alanina aminotransferasa (ALT) y aspartato aminotransferasa (AST),
mientras que para la función renal se evaluaron la urea y la creatinina. El colesterol total y la glucosa se determinaron para el estudio
del metabolismo de lípidos y de carbohidratos respectivamente. El
análisis estadístico se realizó mediante ANOVA de dos vías seguido
por el test t de Student.
n Resultados
En las condiciones del ensayo no se produjo mortalidad ni se manifestaron signos indicativos de toxicidad en los animales estudiados,
como tampoco en el consumo de alimento ni en el peso corporal.
El análisis de los parámetros bioquímicos de la Tabla 1 determinó un
descenso significativo en el nivel de urea de los grupos tratados con
respecto a los controles (P < 0,01).
Se observó un descenso marcado pero no significativo de las enzimas ALT y AST, mientras que la glucosa se incrementó en ambos
grupos de animales tratados. Los niveles de colesterol y creatinina
tampoco mostraron variaciones significativas.
n Conclusiones
Los resultados del estudio toxicológico sugieren el uso seguro de la
especie y permiten establecer los potenciales riesgos sobre la salud
que implica su utilización por la población. En estudios previos ob-
servamos que la exposición aguda por vía oral al extracto acuoso de
la planta no produjo mortalidad ni signos indicativos de toxicidad en
los animales estudiados, como tampoco alteraciones en los parámetros conductuales y funcionales ni en la actividad locomotora.
La urea y creatinina presentes en la sangre son excretadas por el
riñón, por lo que constituyen marcadores de la función renal. Los resultados de esta investigación sugieren que S. chilensis no es tóxica
a nivel renal ya que no se observó un incremento de dichos parámetros en los animales tratados. Los resultados sugieren, además, que
el extracto no conduce a dislipemias ya que tampoco se detectaron
diferencias significativas en los valores de colesterol.
Las ALT y AST son enzimas hepáticas que se elevan en casos de
daño hepático. Si bien el extracto disminuyó estas enzimas en forma no significativa, se observa una tendencia que podría validar el
uso de la planta como protector hepático en casos de trastornos del
sistema digestivo.
Considerando que los animales fueron expuestos a la dosis límite
establecida para los estudios de toxicidad subaguda, los resultados
demuestran que el extracto administrado por vía oral no produce
toxicidad por exposición subaguda en ratones. Si bien esta ausencia
de toxicidad refleja que el posible uso terapéutico del extracto podría
ser seguro, son necesarios otros estudios por exposición a largo plazo para asegurar su inocuidad.
La validación científica de los usos tradicionales de la especie así
como la ausencia de efectos tóxicos posibilitarían su incorporación
a la atención primaria de la salud, promoviendo el mejoramiento de
la calidad de vida de la población, el desarrollo socioeconómico y el
manejo racional de los recursos.n
17
JORFyBI - Fitoterapia: Activos de origen vegetal / Productos Fitoterápicos
ESTUDIO DE ESTABILIDAD POR TLC Y HPLC DE
CÁPSULAS QUE CONTIENEN EXTRACTO SECO
DE GRAVIOLA
Paula G. López, Verónica P. Tarcaya, Ingrid Cufre, Graciela E. Ferraro, Adriana M. Broussalis.
Facultad de Farmacia y Bioquímica. Cátedra de Farmacognosia.
n Resumen
Annona muricata (Annonaceae), “graviola”, “guanábana” es un árbol de
hasta 5 m de altura que crece en zonas tropicales. El fruto, alimenticio y
refrescante, usado en la producción de jugos, caramelos y sorbetes, se emplea popularmente para curar afecciones renales; las hojas se usan para
curar diarreas crónicas y disentéricas (1). Numerosas investigaciones sobre
la composición química de las hojas y las semillas llevaron al aislamiento e
identificación de más de 50 acetogeninas en esta especie. Estos compuestos presentan distintas actividades biológicas, como citotóxicos, antitumorales, antiparasitarios, pesticidas (2).
En el presente trabajo se realizó el estudio de estabilidad de cápsulas que
contienen extracto seco de hojas de Annona muricata (Annonaceae), graviola, y como excipiente maltodextrina. Se desarrollaron métodos por TLC
y un método por HPLC para analizar el extracto seco (materia prima) y el
producto terminado (cápsulas).
n Materiales y Métodos
Cada cápsula contiene: Extracto seco (5:1) de hojas secas de A. muricata:
400 mg / Maltodextrina 100 mg
n Análisis por TLC
Muestras a analizar. Producto: Graviola. Forma farmacéutica: cápsulas.
Fechas de elaboración: Marzo 2007, Octubre 2008, Agosto 2009 y Enero
2010.
Preparación la solución muestra de extracto materia prima: Pesar 0,5 g
de extracto seco de graviola. Colocar en un erlenmeyer y agregar 15 ml
de etanol. Agitar con ayuda de un agitador magnético durante 30 min.
Filtrar por papel. Macerar el marco de la extracción con 15 ml del mismo
solvente durante 30 min. con ayuda de un agitador magnético. Filtrar por
papel. Reunir las 2 soluciones extractivas etanólicas y llevar a sequedad
en evaporador rotatorio. Solubilizar en 5 ml de metanol.
Preparación de cada una de las soluciones muestra correspondientes las
fechas: Marzo 2007, Octubre 2008, Agosto 2009 y Enero 2010: Reunir el
contenido de 10 cápsulas de extracto seco de graviola y procesar como la
solución muestra de extracto materia prima.
Sistema I
Fase estacionaria (FE): Cromatofolios de Silicagel HF 254; 0,2 mm de espesor. Fase móvil (FM): Tolueno, acetato de etilo, acetona (85:8:7)
Siembra: Las cuatro soluciones muestra correspondientes a las fechas:
Marzo 2007, Octubre 2008, Agosto 2009 y Enero 2010 se siembran, cada
una, en banda de 1 cm. Volumen de siembra: 100 µl.
Revelado: la placa se revela por aspersión con reactivo anisaldehído sulfúrico. Se calienta en estufa a 110 ºC y se observa a la luz natural.
Sistema II
FE: Cromatofolios de Silicagel HF 254; 0,2 mm de espesor. FM: Tolueno,
acetato de etilo, ácido fórmico (50:40:10)
Siembra: Las cuatro soluciones muestra correspondientes a las fechas:
Marzo 2007, Octubre 2008, Agosto 2009 y Enero 2010 se siembran, cada
una, en banda de 1 cm.
Revelado: Luego del desarrollo la placa se revela por aspersión con reactivo anisaldehído sulfúrico. Se calienta en estufa a 110 ºC y se observa a
la luz natural.
n Análisis por HPLC
Determinación de acetogeninas en extracto seco de hojas de Annona mu-
18
ricata. Condiciones cromatográficas FE: C 18 Luna Phenomenex 150 x 4.6
mm (5 µm). FM: Mezcla de solventes A y B en gradiente. Solvente A: acetonitrilo (ACN); Solvente B: agua. Gradiente: 70% de A durante 5 minutos;
de 70% de A a 80 % de A en 12 minutos y de 80% de A a 85 % de A en
10 minutos. Flujo: 1,0 ml/ min Detector: UV 220 nm/fotodiodos. Volumen
de inyección: 20 µl.
Preparación de la solución del estándar interno: Pesar en forma exacta
aproximadamente 4,00 mg de 4-O-β-glucopiranosil-5-O-metilvisaminol y
colocar en un mataz de 10,0 ml. Agregar 5 ml de metanol y disolver con
ayuda de un baño de ultrasonido. Llevar a volumen con el mismo solvente.
Filtrar por membrana de 0.45 µm.
Preparación de la solución del extracto patrón de referencia: Pesar 0,4
g del extracto de graviola estándar patrón de referencia. Colocar en un
erlenmeyer y agregar 15 ml de etanol. Agitar con ayuda de un agitador
magnético durante 30 min. Filtrar por papel. Macerar el marco de la extracción con 15 ml del mismo solvente durante 30 min. con ayuda de un
agitador magnético. Filtrar por papel. Reunir las 2 soluciones extractivas
etanólicas y llevar a sequedad en evaporador rotatorio. Solubilizar en metanol y transferir a un matraz de 5,0 ml. Agregar 1,0 ml de la solución del
estándar interno. Llevar a volumen con metanol. Homogeneizar la solución
resultante. Filtrar por membrana de 0.45 µm.
Preparación de la solución del extracto materia prima: Cada una de las
soluciones del extracto materia prima se prepara de la siguiente manera:
Pesar el equivalente 0,4 g del extracto de graviola materia prima y procesar de la misma manera que la solución del extracto patrón de referencia
Preparación de cada una de las soluciones muestra correspondientes las
fechas: Marzo 2007, Octubre 2008, Agosto 2009 y Enero 2010: Cada una de
las soluciones muestra se prepara de la siguiente manera: Pesar el equivalente 0,4 g del extracto de graviola contenido en las cápsulas y procesar de
la misma manera que la solución del extracto patrón de referencia.
n Resultados
TLC
En los sistemas I y II, luego del revelado con reactivo anisaldehído sulfúrico, se observa la coincidencia de perfiles cromatográficos de las soluciones muestra, correspondientes a las fechas Marzo 2007, Octubre 2008,
Agosto 2009 y Enero 2010. HPLC.
En el sistema desarrollado se observa que no se presentó degradación de
los marcadores utilizados (acetogeninas) durante el estudio de estabilidad
(0, 19, 29, y 34 meses).
n Conclusiones
Se propone un vencimiento de 30 meses para estas cápsulas que contienen extracto seco de graviola y maltodextrina.
Los métodos desarrollados por TLC y HPLC son un aporte al control de
calidad de Annona muricata, graviola.n
n Referencias bibliográficas
1. García Barriga H., 1992. Flora Medicinal de Colombia. Tomo I. Tercer Mundo
Editores, Colombia, 340-341.
2. Kim G., Zeng L., Alali F., Rogers L., Wu F., Sastrodihardjo S., McLaughlin J.
1998. Muricoreacin and murihexocin C, mono-tetrahydrofuran acetogenins, from
the leaves of annona muricata. Phytochemistry 49, (2), 565-571.
JORFyBI - Ingredientes Farmacéuticos Activos (IFAs) y Excipientes
Preparación, Caracterización y
Estabilidad de Complejos de Inclusión
de compuestos Bioactivos con
Ciclodextrinas Modificadas
Peggy A. Ponce-Cevallos1, María P. Buera1,2 y Beatriz E. Elizalde1
1
Departamento de Industrias, Facultad Ciencias Exactas y Naturales, Universidad de Buenos Aires
(1428), Ciudad Universitaria, Buenos Aires, Argentina.
n Resumen
Un paso importante en el desarrollo de ingredientes funcionales es el
diseño de procedimientos de formulación para la estabilización, solubilización y liberación de componentes activos en el alimento al cual
serán incorporados.
Las ciclodextrinas (CDS) son oligosacáridos cíclicos de unidades de
glucosa, unidos por enlaces glucosídicos α-1,4. El interés en las
CDS se debe a su capacidad para formar complejos de inclusión,
encapsulando dentro de su cavidad a moléculas hidrofóbicas con
un tamaño adecuado. Esta aptitud ha sido utilizada para aumentar
la solubilidad, estabilidad y biodisponibilidad de compuestos lipofílicos tales como vitaminas, colorantes, aceites esenciales y aromas
en la industria alimenticia, cosmética y sobre todo, farmacéutica.
Sin embargo, las CDS naturales tienen una solubilidad limitada,
por lo que se han realizado modificaciones estructurales para producir cambios en sus propiedades fisicoquímicas. Un ejemplo es la
Metil-β- ciclodextrina (MBCD). El timol y el cinamaldehído (CINAM)
son dos componentes importantes de aceites esenciales naturales.
El timol es un monoterpeno y es muy reconocido por sus propiedades
antisépticas, fungicidas, antimicrobianas y antioxidantes (Cosentino
et al 1999, Youdim y Deans 1999). El CINAM es el componente más
importante del aceite de canela y sus aplicaciones más importantes
se encuentran en la industria aromática y de sabores. Sin embargo,
se ha verificado su efectividad como fungicida e insecticida, además
de efectos farmacéuticos como analgésico o antidiarreico (Wang y
Cheng 2005, Gende y col., 2008). El objetivo de este trabajo fue
estudiar la interacción de dos componentes ampliamente utilizados
en la industria farmacéutica: el timol y el CINAM con la MBCD, en
solución y en el estado sólido.
n Materiales y Métodos
Materiales
La MBCD fue provista por Sigma Chemical Co. (St Louis MO USA). El
timol y el CINAM fueron adquiridos a Carlo Erba (Milán, Italia).
Métodos
Estudio de Solubilidad de fases. Los estudios de solubilidad de fases fueron realizados de acuerdo al método de Higuchi y Connors
(1965) a 25º C. Cantidades en exceso de Timol y de CINAM fueron
agregadas a tubos Falcon, conteniendo 10 ml de soluciones acuosas
de MBCD en concentraciones crecientes (0 a 0,038 M). El contenido
del componente activo en el filtrado fue determinado espectrofotométricamente (UV-1203 Shimadzu, Kyoto, Japón) a 275 nm y a 282
nm para el timol y el CINAM respectivamente. Los cambios en la
solubilidad del timol y el CINAM, que resultaron de la adición de las
distintas concentraciones de MBCD, fueron utilizados para obtener
el diagrama de solubilidad de fases. Las Ke y So (solubilidad intrín-
20
seca) fueron estimadas a partir de la línea recta de los diagramas
de solubilidad de fase de acuerdo a la siguiente ecuación (Higuchi y
Connors, 1965):
pendiente
Ke = So × (1− pendiente)
(1)
Preparación de los complejos sólidos. Los complejos de inclusión de
timol y cinamaldehído con MBCD fueron preparados por el método
de coprecipitación (Mulinacci et al 1996). El timol y el CINAM fueron
agregados a una solución saturada de MBCD a 55º C, en concentraciones equimolares 1:1 de ligando a MBCD. La solución obtenida fue
directamente congelada y liofilizada.
Calorimetría Diferencial de barrido. La calorimetría diferencial de barrido (DSC) se empleó para verificar la formación de los complejos de
la MBCD con el timol y el CINAM. El rango de temperatura programado
fue desde -40º C a 100º C para el complejo de timol-MBCD y desde
-100º C a 120º C para el complejo de CINAM-MBCD y la velocidad de
calentamiento utilizada fue de 10º C/min.
Microscopía Electrónica de Barrido (SEM). La morfología superficial de
los complejos de la MBCD, el timol y el CINAM fueron determinadas
por SEM (Microscopio electrónico Zeiss modelo Supra 40).
n Resultados
Los diagramas de solubilidad de fases de timol y CINAM con la MBCD
a 25º C se muestran en las Figura 1 (a- b). Los diagramas mostraron
un comportamiento tipo AL (Higuchi y Connors, 1965), en el cual
la solubilidad del timol y del CINAM se incrementa linealmente con
la concentración de MBCD. Este incremento de solubilidad puede
estar relacionado con la capacidad de la MBCD de incluir al timol y
al CINAM. Las pendientes de los gráficos fueron menores que 1, que
indicaría la formación de complejos 1:1 (Higuchi y Connors, 1965).
Los valores de S0 y de las Ke de los complejos de timol y CINAM
con MBCD a 25º C fueron calculados a partir de la ecuación (1) y
son mostrados en la Tabla 1. La MBCD mostró diferentes afinidades
por el timol y el CINAM. La interacción de la MBCD fue mayor con el
timol que con el CINAM. Esto puede ser debido a que el grupo lateral
C=C-CHO del CINAM, que posee un grupo insaturado, hace que la
molécula sea menos flexible, lo que podría dificultar su entrada en la
MBCD (Rekharsky y Inoue, 1998).
La Figura 2 muestra los termogramas obtenidos por DSC para la
MBCD, timol, CINAM y los complejos 1:1. El termograma del timol
muestra un pico endotérmico a 50º C que corresponde a su punto de
fusión, mientras que en la curva del complejo timol-MBCD dicho pico
desapareció (Figura 2 b). Un comportamiento similar presentó el com-
plejo CINAM-MBCD (Figura 2a). El pico endotérmico cerca de -10º C,
desaparece completamente en el complejo. La desaparición completa
de los picos de fusión es una evidencia más de la formación de los
complejos (Karathanos y col., 2007).
Las imágenes obtenidas por SEM para el timol mostraron cristales
típicos de diferente tamaño y forma, mientras que los complejos de
timol-MBCD y CINAM-MBCD 1:1 presentaron una estructura compacta
homogénea similar a un polvo (figuras no mostradas).
n Conclusiones
Figura 1. Diagrama de solubilidad de fases del
a) Timol y b) CINAM
Figura 2. Termograma obtenido por DSC
La MBCD reacciona con el Timol y el CINAM para formar complejos
de inclusión 1:1, que se confirmaron por diagrama de solubilidad de
fases, DSC y SEM. La formación de los complejos produce un aumento
de la solubilidad de los compuestos incluidos. Estos datos podrían
contribuir a diseñar procesos de encapsulación, determinando la
afinidad, estabilidad y liberación controlada de aromas, pigmentos y
otros aditivos farmacéuticos.n
Tabla 1. Valores estimados de la solubilidad intrínseca (So), de las constantes de estabilidad (Ke) para los complejos de timol
y CINAM con MBCD y sus correspondientes desviaciones estándares (σ) a 25ºC
So ± σ (M)Ke ± σ (M-1)
Timol CINAM
0,030± 0,001
0,032 ± 0,002
TimolCINAM
391 ± 28
293 ± 18
21
NUESTRAS ACTIVIDADES
CURSO: PROTOCOLO DE CALIFICACIÓN
DE EQUIPOS DE MICROBIOLOGÍA
Ante un auditorio de 25 personas, el Dr.
Néstor O. Aversa desarrolló el curso sobre
Calificación de equipos de laboratorio de
Microbiología, los días 9 y 11 de Abril.
El mismo se dividió en 3 partes: Aspectos regulatorios, Documentación (Requisitos de usuario, Especificaciones
Funcionales de Diseño, Calificación de
Diseño, Instalación, Operación y Performance) y casos prácticos de calificación como ser autoclaves, hornos,
flujos laminares y aisladores entre otros. El enfoque general tuvo en
cuenta la gestión de riesgo.
Los asistentes concurrieron fundamentalmente por las exigencias regulatorias,
construcción de nuevos laboratorios,
mudanza de existentes y calificación de
equipos nuevos.
La participación de la audiencia fue muy
activa y se destacaron consultas prácticas sobre determinados equipos en
particular.
Como parte de la documentación entregada se adjuntaron protocolos
de calificación acorde a la normativa vigente de la Organización Mundial de la Salud. n
Validación de Procesos y Calidad por Diseño
Recomendaciones de las nuevas guías FDA
y EMA para la Estrategia de Validación de
Productos y Procesos
Durante los días 19, 21 y 26 de marzo de 2013,
se dictó en las instalaciones de la Fundación Pablo
Cassará el curso de Validación de Procesos y Calidad por Diseño. La presentación estuvo a cargo de
la Farmac. Magdalena Nannei.
Las nuevas guías de Validación de Procesos de la
FDA y de la EMA alinean las actividades de validación con las recomendaciones de las guías ICH Q8
Desarrollo Farmacéutico, Q9 Gestión del Riesgo de
Calidad y Q10 Sistemas de Calidad Farmacéutico.
Para la guía de Validación de Procesos de la FDA
hay un cambio de paradigma esencial, ya que pasa
de la concepción de evidencia documentada a
evidencia científica, para justificar que un producto/proceso está
validado. Además, el concepto de validación debe extenderse a todo
el ciclo de vida, es decir es una actividad que no se limita a los “lotes
de validación” sino que se extiende en el tiempo, incluyendo cambios,
mejoras y observaciones recogidas en la experiencia de manufactura
comercial. Un cambio importante en el modelo de validación es
la eliminación de un número específico de lotes a validar, los famosos tres lotes, número que según esta guía debería determinarse
de acuerdo a criterios establecidos por el fabricante y que pueden
basarse o no en razones estadísticas. En todos los casos, la validación
requiere tres pasos: 1) la definición del proceso y el conocimiento del
mismo en la etapa de diseño, 2) la calificación del proceso para determinar si es capaz de una manufactura comercial reproducible y 3)
el uso de la verificación continua durante la producción de rutina para
asegurar que permanece en estado de control. La evaluación de conocimiento del producto y del proceso debe basarse en la Gestión del
Riesgo de Calidad y permite determinar las medidas para mitigar el
riesgo asegurando que la variabilidad sea controlada por las mismas características del proceso, variabilidad ocasionada por los
materiales, los métodos de elaboración, las medidas (análisis), las
22
máquinas (equipos), el medio ambiente y las personas (5 m´s+1p).
La nueva guía de la EMA es aún un borrador y se está a la espera
de la versión definitiva. Un comentario importante es que esta guía
no introduce nuevos requerimientos e intenta clarificar las mejoras
que se pueden obtener por la aplicación de las guías ICH Q8, Q9 y
Q10. Se reconocen tres tipos de validación y el concepto de ciclo de
vida. Los tres tipos de validación son la tradicional (tres lotes), la
verificación continua y una estrategia híbrida.
Los conceptos de Calidad por Diseño, Espacio de Diseño y Diseño
de Experimentos son parte de las necesidades de los nuevos paradigmas de validación. La Calidad por Diseño es una estrategia sistemática de desarrollo, el Espacio de Diseño es la comprensión de los
efectos ocasionados por la combinación multivariada de los factores
de formulación y del proceso que aseguran la calidad y el Diseño de
Experimentos es una estrategia de experimentación por la que se estudian los efectos por la combinación multivariada de factores. Debe
enfatizarse que el establecimiento de un Espacio de Diseño permite
realizar cambios posteriores al registro de un producto sin necesidad
de realizar un nuevo registro, posibilitando con ello grandes ventajas
económicas. n
NUESTRAS ACTIVIDADES
Curso: Liderazgo y Coaching
Durante los días 18 y 25 de marzo de 2013, se
dicto en las instalaciones de la Fundación Pablo Cassará el curso de Liderazgo y Coaching.
La presentación estuvo a cargo de la Lic. Viviana Trejo.
En el transcurso de las dos jornadas se presentaron aspectos relacionados con el comportamiento de las personas y de los líderes
dentro de las organizaciones.
Las expectativas y actitudes que se manifiestan en la mayoría de los líderes organizacionales y que son ampliamente valoradas por
el personal a su cargo, son aquellas que demuestren compromiso, reglas de juego claras
y objetivos bien definidos.
Las características más sobresalientes de los
lideres, es que tienen una visión radicalmente
nueva que motiva, atrae y convence, virtudes
que permiten que se establezcan relaciones
dinámicas y productivas.
Por ello resulta imprescindible que el líder desarrolle una metodología de acuerdo a su rol
de coach, relacionándose con la gente, diagnosticando sus necesidades, creando planes
de acción, realizando seguimientos y brindando un feedback continuo.
Con respecto a los objetivos del líder en su rol
de coach, partiendo de la definición del desarrollo del coaching individual, se concentran
en lograr la superación de problemas particulares de desempeño, el desarrollo de ciertas
competencias y la preparación para afrontar
nuevas y más importantes responsabilidades
o desafíos que le permitirán desarrollar la capacidad potencial de cada individuo.
Por otra parte, el líder debe implementar sesio-
nes de coaching grupales que ayudarán a que
el personal mejore la productividad de las reuniones, el incremento de la propia participación
en la toma de decisiones, el desarrollo del trabajo en equipo, la resolución de conflictos, etc.
La actividad tuvo un alto grado de participación por parte de los asistentes de las diferentes empresas de la industria farmacéutica,
con los cuales se pudo compartir experiencias
e inquietudes personales, que han sido sumamente enriquecedoras para todos los participantes del encuentro. n
Curso-Taller / 07-08 Mayo 2013
Logística en Condiciones Reguladas
Buenas Prácticas en el manejo de productos
sensibles a la temperatura
Un nuevo año y con una temática y abordaje
renovado, los disertantes Federico Lupp y Arlette Gago, desarrollaron este Curso-Taller, lamentándose los que no pudieron participar por
haberse colmado la capacidad del auditorio de
la Fundación Cassara.
Se tuvo la oportunidad de poder acceder a información y datos del día a día sobre la realidad en esta materia en otros lugares del mundo, donde llegan productos argentino, permi-
tiendo tener una visión más amplia y acabada
de la realidad en cadena regulada.
La presentación abarcó desde Calificación y
Validación y Análisis de Riesgo a las expectativas Regulatorias (WHO, PDA cap. 32, IATA
cap. 17 Productos Farmacéuticos, RX360,etc).
En el segundo día, la estructura del curso se
fue convirtiendo en Taller, donde todos pudieron intercambiar ideas y tratar de resolver el
problema de logística que se planteó y donde
los diferentes grupos tuvieron la oportunidad
de aplicar los conocimientos recibidos, con la
moderación de ambos disertantes.n
DISEÑO Y CONSTRUCCIÓN DE ÁREAS FARMACÉUTICAS
A principio de mayo del corriente año se desarrolló el curso de construcción de plantas farmacéuticas a cargo del Ing. Hernán Chiterer.
Este curso fue la reiteración ampliada del
desarrollado el año pasado ya que en aquella oportunidad se colmó la capacidad del
auditorio.
les para una operación farmacéutica
4) Depósitos caóticos
5) Área nueva o área remodelada
6) Operación para terceros
7) Inyectables
8) Áreas Limpias
9) Área de líquidos
El temario del curso estuvo centrado en los
siguientes temas
1) Como desarrollar un proyecto en forma
ordenada para ser económicamente rentable
2) Diseño de una área de solidos
3) Agua y aire. Las materias primas principa-
Por otra parte el Ing. Chiterer aportó algunos
temas adicionales a esta presentación como
son áreas estériles, procesos de llenado aséptico de altísima tecnología, descripción del
Proceso Blow, Fill and Seal, diseño de áreas
segregadas para productos farmacéuticos de
alta complejidad y potencia como betalactámicos, hormonales, inmunosupresores, citostáticos, etc.
Entre los participantes se contó con la presencia de Laboratorios de Bolivia y Uruguay.n
23
NUESTRAS ACTIVIDADES
ANÁLISIS DE RIESGO EN LA INDUSTRIA FARMACÉUTICA
Durante los días 15, 22 y 29 de mayo en
el horario de 18 a 21 hs., el Dr. José Felix
Blanc desarrolló el curso Análisis de riesgo
en la industria farmacéutica. Métodos y
Herramientas.
Gestión de la Administración de Análisis de Riesgo en la Industria Farmacéutica, es un concepto
aplicado desde aproximadamente 10 años.
Básicamente consiste en considerar tres factores en cada operación o proceso. Esto incluye todas las actividades desde la recepción de
materias primas, productos semi-elaborados
o terminados, manufactura, Control de la Calidad, distribución, procesos informáticos, etc.
Estos factores son: Severidad, Probabilidad y
Detectabilidad. A través de la aplicación de
cGMP y un profundo conocimiento del proceso en el que se aplica, se otorga una escala
de valores a estos factores. Si se multiplican
estos valores se obtiene un índice que se conoce habitualmente como RPN (Risk Priority
Number).
El objetivo final del análisis de Riesgo consiste
en reducir este índice hasta niveles
que pueda se puedan aceptar, basándose en el conocimiento del proceso
y soportado por conceptos técnicocientíficos (historia del proceso, publicaciones de importancia conocida,
valores disponibles).
Obviamente una vez aplicada a una
determinada operación, deberían reducirse la Severidad y Probabilidad y
aumentar la Detectabilidad.
Normalmente el proceso consiste sintéticamente en Determinar el Riesgo posible,
establecer el índice, analizar sus posibles
causas, decidir qué parte del proceso se debe
considerar, aplicar y observar la posible disminución del índice. Esto se completa con el
seguimiento y la medición de la tendencia.
Para desarrollar el sistema se cuenta con una
serie de herramientas como HACCP, FEMEA,
FEMECA, FTA, etc., que utilizadas en forma
aislada o por la reunión de alguna de ellas permiten sistematizar el proceso. Naturalmente
todo análisis debe llevarse a cabo a través de
un equipo multidisciplinario donde participen
todos los sectores de la empresa.
Es imprescindible además determinar el riesgo residual que se origina por la aplicación de
esta gestión.
En el curso desarrollado se analizaron los
conceptos mencionados en los párrafos anteriores y se efectuaron a modo de taller una
serie de ejercicios sobre problemas reales de
la Industria surgidos de auditorías técnicas o
aportados por los asistentes. n
Cuestiones Bioéticas en torno a las Adicciones
A continuación algunas ideas recientes de
dos importantes especialistas de nuestro
país con respecto a este tema:
proceso más amplio de empobrecimiento
y deterioro del funcionamientos y capacidades que afectan la libertad de elección
de una vida digna.
Dra. Cristina Pecci, Socióloga, Dra. en
Psicología, UB; Jefe de la Sección Calidad
de vida relacionada con la salud, Departamento de Salud Mental, Hospital de Clínicas, Universidad de Buenos Aires.
-Consumo de sustancias psicoactivas:
Es ante todo un comportamiento social
resultante de un conjunto de fuerzas
relacionadas a la exposición y a la vulnerabilidad. Esta interacción de fuerzas
da lugar a diferentes modos de relación,
desde el consumo hasta la adicción.
Se tiende a focalizar el problema en
la dependencia o “adicción” y a reducir el fenómeno a este segmento. Sin
embargo, de acuerdo a la Clasificación
Internacional de Enfermedades (CIE-10)
de la OMS, hay evidencia de consumo
perjudicial cuando el consumo de una
sustancia ha causado daño somático
por alteraciones psicológicas, incluyendo la alteración del juicio o de la conducta, que podrían llevar a discapacidad
24
Dra. Prof. Graciela Damilano, Dra. en
Medicina, Jefe de la Sección de Pediatría
de la Conducta y el Desarrollo, Departamento de Pediatría, CEMIC.
- Mitos y Verdades. Mitos: Las personas
adictas eran moralmente erróneas y carentes de fuerza de voluntad
o tener consecuencias en las relaciones
interpersonales.
-Las sustancias psicoactivas amenazan
las posibilidades de llevar adelante una
vida con calidad. [...] El consumo de sustancias psicoactivas tiene impacto en la
salud y no implica solamente la presencia de un trastorno y de riesgos graves en
sí mismos sino que además supone un
- Consecuencias: La respuesta de la sociedad era tratar el abuso de drogas, como
un defecto moral en lugar de un problema de salud, lo que llevó a un énfasis en
las acciones punitivas en lugar de preventivas y terapéuticas.
- Verdad: La adicción es una enfermedad
que afecta la arquitectura cerebral, y
por lo tanto la conducta, alterando los
procesos normales de aprendizaje, motivación, memoria y el control inhibitorio:
Circuito Límbico.n
PRIMERA Edición del Curso de Posgrado
en Biotecnología Farmacéutica
Publicado el : 01-05-2013 en ARGEN BIO
Durante el mes de mayo comienza en Buenos Aires con una modalidad
de cursada presencial teórico-práctica. Se dictará en la Universidad
Argentina de la Empresa y la Universidad de Belgrano.
El curso consta de clases teóricas, clases prácticas (un total de 5) y
visitas a empresas farmacéuticas con perfil biotecnológico. Las clases
partirán desde los conocimientos más elementales de biología molecular hasta la aplicación de los mismos en el área biofarmacéutica.
Para tal fin, se han contactado docentes que puedan impartir los fundamentos del tema y docentes que están directamente involucrados
en producción. El curso también va a contar con dos expertos extranjeros: el Dr. Robert Sindelar, de la University of British Columbia (Vancouver, Canadá), que es un pionero en la enseñanza de biotecnología
farmacéutica a nivel mundial, y el Dr. Alejandro Ricciardi del Instituto
Pasteur de Uruguay, experto en análisis de productos biológicos.
El curso está organizado en 5 módulos que abarcan 5 áreas generales.
Los alumnos pueden optar por realizar el curso en su totalidad, o seleccionar los módulos más apropiados de acuerdo a sus conocimientos.
La coordinación del Curso está a cargo de la Dra. Sandra Pitta-Álvarez, PhD Farmacéutica, Lic. en Industrias Bioquímico Farmacéuticas
y Doctora de la Universidad de Buenos Aires, con especialización en
Biotecnología Vegetal.
26
Modalidad de cursada: Viernes de 18 a 21 hs en Universidad de
Belgrano. Sábados de 9 a 12 hs en Universidad Argentina de la Empresa.
Duración: 158 hrs (6 meses)
Inicio: Mayo Finalización: Noviembre Información adicional: 4000-7666. Mayo UADE n
Gestión del Conocimiento y de la empresa
Quick Response
Manufacturing (QRM)
Un paradigma emergente para la
manufactura en Operaciones Farmacéuticas
Martín Dobovšek
Como consecuencia de la revolución industrial y principalmente a
partir de la Segunda Guerra, el mundo ha visto aparecer sucesivas concepciones sistémicas relacionadas en cómo implementar
la manufactura de productos, y en las últimas décadas, también
de servicios.
Siendo Estados Unidos uno de los países envueltos en la Segunda Guerra Mundial pero que pudo mantener intacta su estructura
industrial, la posguerra le brindó un mercado inagotable para sus
productos. El énfasis estaba en la masa. La calidad y la eficiencia no
era necesariamente una prioridad.
Recién en la década del 80, como consecuencia de la concepción
industrial japonesa (Deming), comienzan a replantearse los paradigmas de posguerra. Aparecen los énfasis en la calidad, productividad,
diseño y se crea una variada gama de tecnologías, herramientas de
calidad y de procesos que permitieron desplegar esas concepciones
en la manufactura.
Siendo Operaciones un área clave para toda organización que provea
un producto a un mercado, y siendo éste la principal razón de la
existencia de esa organización siempre es imprescindible adaptar
los procesos de manufactura a los cambios que se evidencian en los
contextos y entornos.
En la década del 80, la variabilidad de los procesos fue el foco de la
gestión en manufactura. Y Six Sigma y en alguna medida más tarde
Lean Manufacturing con su gestión de “mudas” marcaron la tendencia en operaciones en los últimos años.
No obstante, no proporcionaban una solución satisfactoria a ciertas
estructuras de negocio donde
• las demandas son variables,
• existe un elevado mix de productos y
• los volúmenes de producción son bajos sumados a la utilización
de tecnologías complejas en los procesos.
Es así ahí donde Quick Response Manufacturing (QRM) intenta presentar una alternativa práctica.
Se trata de una metodología de manufactura diseñada por el Profesor Rajan Suri de la Universidad de Wisconsin. En su libro “Quik
Response Manufacturing: A Companywide Approach to Reducing
Lead Times”, 1998, describe detalladamente su modelo y cómo
implementarlo en manufactura.
La premisa fundamental es la gestión y disminución drástica de
los Lead Times productivos. Por eso, esta característica hace particularmente interesante al QRM en situaciones de negocio, como
comentábamos más arriba, donde las demandas son variables, el
mix de productos es elevado, el volumen es bajo y la tecnología o
complejidad de los mismos es intensiva. El QRM genera sustanciales
beneficios sólo en organizaciones donde los clientes tanto internos
como externos valoran Lead Times cortos por sobre otras variables
del negocio (ej. costos, utilización de equipos, inventarios). No es
que no se consideran, sino que quedan relegadas en los criterios
de decisión, obviamente manteniendo la eficiencia económica de la
organización.
El QRM utiliza la dinámica de los sistemas para el análisis de la
manufactura. La mayoría de las compañías prioriza la medida de
la performance de la manufactura en el suministro tiempo (on-time
delivery). Asimismo, también hacen énfasis en la utilización eficiente de recursos a través de su plena capacidad de funcionamiento.
Equipos funcionando a plena capacidad tienden a significativas colas
aguas arriba lo que incrementa los Lead Times. Si esta situación se
mantiene en una organización, es inevitable el incremento necesario
de inventarios y de los Lead Times de esos productos.
28
La implementación del QRM implica importantes cambios estructurales y, más que nada, conceptuales en una organización. Al focalizar solamente en los Lead Times como impulsor, la estructura de
producción se organiza en células más que en centros funcionales.
El siguiente paso es modificar el tamaño de los lotes a valores que
minimicen sus Lead Times. Continúa luego la implementación de un
sistema de control de producción denominado por Suri, POLCA (Paired-cell Overlapping Loops of Cards with Authorization) que gestiona
el flujo de productos en la planta y funciona debajo del “paraguas”
MRP existente en la organización. Sucintamente, sus principios fundamentales (entre otros, que escapan al análisis de este artículo) son:
• No operar con recursos a plena capacidad (personal, equipamiento): la experiencia indica que las ocupaciones de recursos deberían rondar el 70 / 80% a fin de adaptarse a las variabilidades del
sistema y del mercado.
• No focalizar exclusivamente en la eficiencia del equipamiento para
reducir el Lead Time; por el contrario, monitorear la reducción
del Lead Time y transformarlo en una medida de performance e
impulsor de modificaciones en el equipamiento
• No enfatizar la organización demasiado en el “suministro a tiempo” (on-time delivery): las sobreutilización permanente de los
recursos afecta negativamente la reducción del Lead Time. Por
el contrario, el monitoreo del Lead Time y sus mejoras impactarán para lograr el “suministro a tiempo” deseado a través de las
modificaciones que se implementen como consecuencia de ese
monitoreo.
30
El POLCA es un sistema de control de producción tipo pull que
combina elementos del Kanban, CONWIP y MRP. En la práctica,
consiste en tarjetas similares a las utilizadas en Kanban pero para
pares de celdas o centros de trabajo. Esto le confiere mayor flexibilidad ya que los productos pueden tomar distintas rutas en la
manufactura (a diferencia del Kanban). El número de tarjetas es
finito limitando así el inventario en el sistema como el CONWIP.
Para iniciar un determinado proceso productivo, una tarjeta debe
estar disponible y el trabajo estar autorizado por el sistema MRP
(esto le confiere el link a la estructura de la organización y a la
programación macro). Esta autorización se incluye, entre otras razones, para asegurar que un producto muy adelantado a su cronograma no bloquee un proceso. Una orden a tiempo cercana no será
bloqueada por productos adelantados a su cronograma. El sistema
permite combinaciones Push y Pull de acuerdo a particularidades
de la manufactura con lo cual permite aún más flexibilidad en la
concepción (recordemos que los sistemas productivos Pull son los
favoritos en la actualidad dada la disminución de inventarios consecuente).
La implementación del QRM en la industria farmacéutica recién está
comenzando. Existen algunos casos exitosos lo que indicaría que
se trata de una alternativa interesante en el momento de definir la
estructura de la organización.
Ya finalizando, y como todo principio estratégico fundamental, la estructura debe estar siempre subordinada la estrategia y nunca a la inversa.
Como decía mi profesor: invertir esta relación nunca queda impune.n
LA COLUMNA CROMATOGRÁFICA
ESTABLECIMIENTO DE
PARÁMETROS DE VALIDACIÓN PARA
PROCEDIMIENTOS DE REFERENCIA
ACEPTABLES
Oscar Quattrocchi
Nota: este artículo fue escrito bajo la entera responsabilidad
del autor, y no constituye necesariamente una recomendación
o posición formal de la USP como así tampoco compromete a
la USP respecto de los puntos de vista indicados.
Este artículo se publicará en dos entregas, desarrollando en la segunda parte el tema central, pero necesariamente presentado por esta
introducción al tema, que muestra el entorno,
las falencias en algunas de las normas vigentes en relación a la ciencia actual, y una breve
reseña de lo que puede hacerse, y lo que en
determinados terrenos está haciéndose para
mejorar el estándar de calidad, adecuándolo
a las necesidades de lograr un medicamento
de calidad, seguridad y eficacia, pero también
teniendo en cuenta las posibilidades económicas y regionales.
Esta perspectiva responde a un punto de vista
adoptado por la USP, que puede ser discutido
pero que comparto y quiero compartir, en el
primer caso por el conocimiento adquirido a
través de décadas de trabajo en la industria
farmacéutica, por la participación durante varios años y actualmente en diversos comités
de expertos de la USP, y por la convicción de
que es necesario modernizar estándares que
funcionaron oportunamente, pero que deben
evolucionar y mejorar conjuntamente con la
modernización de la ciencia y la técnica.
La USP se ha caracterizado por la creación y
mantenimiento de estándares de calidad en la
producción, control y distribución de medicamentos desde hace casi 200 años. Conservo
en mi biblioteca una copia de la primera edición de la USP, firmada en enero de 1820 y
que me fuera obsequiada en mi papel de Observador durante la Convención de la USP en
el año 2005. No abundaré en detalles acerca
del reconocimiento de la USP en todo el mundo, pero es hoy claro que si bien su función
original ha sido la excelencia en los medicamentos dentro de EE.UU., su creación ha trasvasado claramente sus fronteras y hoy constituyen una fuente de referencia altamente
reconocida en el mercado global. Este escenario se ve asimismo complicado por efectos
convergentes y propios de la sociedad actual.
No sólo se trata de calidad de producción, sino
32
se agregan complicaciones por materiales
que compiten reduciendo costos y precios a
expensas de calidad sub-estándar, adulteración, falsificación y contrabando.
En un mundo cambiante, la técnica debe
adaptarse en función de la ciencia, y el objetivo debe centrarse no sólo en mantener sino
también en mejorar los estándares de calidad.
En función de lo antedicho, es claro que los
objetivos deben evolucionar, pero el inconveniente es el choque con costumbres establecidas y con prejuicios. En un momento determinado se crea un estándar, que responde
a los criterios contemporáneos de calidad. El
estándar funciona, se implementa y consolida,
pero al cabo de los años el sponsor de ese
producto desaparece, o deja de interesarse en
ese producto porque otros son más atractivos
económicamente. El tiempo pasa, el estándar
queda y se conserva como válido. Pero en la
misma línea de tiempo ocurren otros hechos
relevantes que pueden afectar la globalidad
de ese estándar y, a pesar de factores que demandan su modernización, quedan allí, incólumes. Casos de reciente repercusión deberían encender luces de alerta. Por ejemplo los
recientes casos por toxicidad de melamina,
dietilenglicol y la genotoxicidaddel metansulfonato de etilo entre los más relevantes. Pero
el estándar sigue allí, su método de análisis
y sus criterios de aceptación sin cambio, a
menos de que un accidente ocurra. Desde el
punto de vista económico, si todo está bien,
¿por qué cambiarlo?
El resultado de todo esto se traduce en viejos
estándares para nuevos productos, falta de
regulación en muchos países, sea por falta de
farmacopea o por desactualización de las vigentes. En este momento en la USP, se estima
que aproximadamente un 50% de las monografías está ausente (productos no incluidos)
o necesita actualización. Entonces debería
surgir una pregunta: si los métodos deben
cambiar, ¿por qué no se hace?¿Quién debe
hacerlo?, y con frecuencia miramos alrededor
esperando que alguien tome la iniciativa, pero
a veces esto no ocurre.
La USP y la FDA invierten grandes esfuerzos en
modernizar las monografías, pero esa tarea no
siempre puede ser cumplida. Entonces, para
una vieja monografía para la cual necesitamos emplear nuevos procedimientos, ¿cuáles
deberían ser los criterios de calidad?¿Cuáles
deben ser sus criterios de aceptación?
Desde mi punto de vista, es un hecho elogiable que la USP haya tomado el liderazgo
en este camino, y lo ha hecho en un sentido francamente global. Instaladas tres sedes
fundamentales en Asia del Este (con sede
en China y dedicada a excipientes), Asia del
Sur (con sede en India) y Latinoamérica (con
sede en Brasil, los dos últimos abocados a
ingredientes activos y medicamentos), cada
una de esas sedes se transformó en un centro regional de actualización, para establecer
los procedimientos analíticos y los criterios
de aceptación para los medicamentos que,
o bien no se comercializan en EE.UU.por razones de impacto regional (por ejemplo para
el tratamiento de la malaria, Chagas, etc.) o
bien necesitan imperiosamente un proceso de
actualización.
El producto de este objetivo es el USP Medicines Compendium, un compendio de norma
públicas que incluye principios activos, excipientes y productos farmacéuticos de naturaleza química y biológica, y se distribuye globalmente en forma gratuita a través de su sitio
web, http://www.mc.usp.org y http://www.
usp.org/ (sección AroundtheWorld). Si bien
las normas se presentan en inglés, pueden
traducirse a cualquier otro idioma y utilizarse/
publicarse sin previa solicitud de permiso.
Los reglamentos para la creación de estas
monografías así como los capítulos generales de forma también son de acceso público y gratuito, y resultan básicamente en
las monografías basadas en performance. La
creación y aprobación de estos estándares
sigue los reglamentos establecidos para los
Comités de Expertos de la USP, los que pueden requerir en casos puntuales del apoyo de
Paneles de Expertos que son creados para
esa única función.
El tema específico que nos ocupa en esta columna es precisamente el enfoque que toma
el MC para la creación de las Monografías Basadas en Performance (PBM, por sus siglas en
inglés), el cual provee pruebas para atributos
de calidad críticos y criterios de aceptación,
sin describir necesariamente un procedimiento paso-a-paso. En lugar de ello, el MC brinda
criterios para un procedimiento aceptable y de
esta forma, la información que la industria y
demás usuarios necesitan para crear sus propios procedimientos aceptables.
El MC incorpora además los Procedimientos
de Referencia creados en laboratorios de la
USP. Estos procedimientos pueden usarse
para controlar artículos de fuentes variadas.
Los procedimientos de referencia son desarrolladas por el plantel de la USP, con la
colaboración de donantes de información y
materiales o incluso procedimientos propios
del donante.
Finalmente, los estándares de MC no son
mandatorios. Se basan en el aporte volunta-
rio para ser adoptados por cualquiera de las
partes, aunque pueden convertirse en mandatorios cuando se incorporan a un registro
regulatorio, o si una agencia regulatoria los
reconoce como tal. Puede incluso haber una
superposición con un método codificado en la
USP cuando ante la necesidad de crear una
monografía para un producto no codificado,
debe comenzarse por el ingrediente activo,
creándose así un estándar para un producto
ya existente en la USP. Es intención y deseo
de la USP que en instancias finales, será beneficiaria de la aproximación innovadora propiciada por MC, tal vez comenzando por los
excipientes, pero cuando ello ocurra probablemente deberá ser a través del US Pharmacopeial Forum, la publicación bimensual para
conocimiento y comentario público.
Una consecuencia natural del desarrollo del
MC sería el fortalecimiento de los estándares
compendiales de la USP, incluyendo en ocasiones las monografías de USP y NF, así como
los de otras farmacopeas.
Los criterios para la validación y el establecimiento de los parámetros de validación para
los procedimientos de referencia aceptables
fueron discutidos en el foro de la USP, capítulo
<1010>, y si bien no fueron aún implementados en la USP, lo fueron en el MC en su capí-
tulo <10>, incluyendo criterios de aceptación
para las pruebas de precisión, exactitud, linealidad y rango para impurezas relacionadas
y valoración. Cabe resaltar la adopción de la
ecuación de Horwitz, relevante en otros campos de la ciencia donde se acepta justificadamente para establecer criterios de aceptación
en la evaluación de trazas.n
La Columna Cromatográfica le agradece al
autor:
Dr. Oscar Alberto Quattrocchi
Gerente de Capacitación y Asesoramiento
Analítico de D’Amico Sistemas S.A.
Miembro del comité de Expertos para los Capítulos Generales de la USP, Análisis Químico.
Chair del Panel de Expertos de la USP para
Solventes Residuales.
Miembro del comité de Expertos para el Medicines Compendium para Latinoamérica y el
Caribe.
Miembro del Panel de Expertos de la USP en
Español.
Ante cualquier inquietud por este artículo remitir la correspondencia al Dr. Oscar Alberto
Quatrocchi.
E-mail: [email protected]
Información de Interés
Métodos de Disolución de la FDA
La página de la FDA lista principalmente
los siguientes métodos de disolución
correspondientes a una lista de casi 1000
productos:
• I cesto rotativo
• II paletas
• III cilindro reciprocicante
• IV Celda de flujo continuo • V Paleta-sobre-disco • VI Cilindro
• VII Soporte reciprocicante • Equipos para masticables Farmacopea
Europea (ver Figura)
• Agitador-incubadora
El enlace a la página de la FDA para consultar
la lista de productos involucrados es la
siguiente:
http://www.accessdata.fda.gov/scripts/cder/
dissolution/dsp_searchresults_dissolutions.
cfm?printall=1 n
34
Aparato para medición de la disolución de masticables de Wennergren:
reproducido de fuente pública disponible www.fia.se
LA COLUMNA DE GARANTÍA DE CALIDAD
MODIFICACIONES EN LAS BUENAS PRÁCTICAS
DE FABRICACIÓN DE LA PIC (Pharmaceutical
Inspection Convention) PE 009-10
Dr. Néstor Oscar Aversa
(Parte I)
Teniendo en cuenta que nuestro país es miembro de la PIC desde Enero 2008, los cambios y
actualizaciones que dicha organización realiza,
impactan directamente en las inspecciones regulatorias que la ANMAT realiza a los laboratorios de especialidades medicinales. Baste mencionar que determinados cambios operados en
la manufactura de productos estériles (como por
ej. el monitoreo continuo de partículas) son aplicados sin estar incluidos en las disp. 2819/2004
o 2372/2008.
En el cuerpo de la norma el único capítulo que
ha sido actualizado con respecto a la versión
anterior es el número 4, Documentación, cuyas
principales cambios son detallados a continuación y comentados en recuadros..
En la introducción se destaca a la documentación como parte esencial del sistema de Garantía
de Calidad y fundamental para el cumplimiento
de requisitos de buenas prácticas de fabricación
(GMP). El sistema de gestión de calidad debe
definir con claridad el tipo de documentos y
medios usados. Explicita que la documentación
puede existir en formato de papel, electrónico o
fotográfico. El principal objetivo del sistema de
documentación debe ser establecer, controlar,
monitorear y registrar todas las actividades que
directa o indirectamente impactan sobre todos
los aspectos de la calidad de productos farmacéuticos. Las instrucciones deben contener suficiente detalle como para comprender y cumplir
los requisitos.
Define dos tipos fundamentales de documentos
para gestionar el cumplimiento GMP: Instrucciones y Registros/Informes.
Las instrucciones deberían estar libre de errores
y por escrito, entendiéndose por “escrito” a la
documentación sobre medios de los que puedan
obtenerse en forma leíble, exacta y manteniendo
su integridad.
Esta introducción ha ampliado sustancialmente
la información existente en la versión anterior. Se
destaca particularmente la variedad de formas
por las que la documentación puede ser almacenada así como los detalles que debe poseer
la misma a los efectos de su fácil comprensión y
monitoreo permanente de su cumplimiento.
La documentación GMP requerida por tipo es
la siguiente:
• Archivo Maestro de Sitio (Site Master File):
Documento que describe las actividades relacionadas con GMP por parte del fabricante.
La ANMAT informó en reunión pública del
9 de Octubre 2012 el carácter de man-
35
datorio de la confección del Site Master File, inspirado en la guía PIC PE 008-4
EXPLANATORY NOTES FOR PHARMACEUTICAL
MANUFACTURERS ON THE PREPARATION OF A
SITE MASTER FILE del 2011. La ANMAT a Mayo
2013 aún no ha emitido la disposición de entrada
en vigencia sobre la obligatoriedad de su confección.
- Instrucciones: Comprende lo siguiente:
•Especificaciones: Describen en detalle los
requisitos que deben cumplir lo materiales
y productos usados u obtenidos en la manufactura. Son usadas como base de comparación para evaluar la calidad.
•Fórmulas de Manufactura, Fabricación,
Acondicionamiento e Instrucciones de Ensayo: Brindan el detalle de todos los materiales, equipamiento y sistemas computarizados (de existir) a ser usados así como
todas las instrucciones de muestreo y
controles de proceso off line y on line (PAT:
Process Analytical Technology) con sus correspondientes criterios de aceptación.
• Procedimientos (SOPs): Brindan las instrucciones para realizar cierto tipo de operaciones.
•Protocolos: Brindan las instrucciones para
realizar y registrar ciertas operaciones discretas.
• Acuerdos Técnicos: Son los acuerdos relativos a la tercerización de actividades.
•Registros/Informes: Brindan la evidencia de
diversas acciones tomadas para demostrar
el cumplimiento de las instrucciones, y en
el caso de la manufactura de productos una
historia de cada lote de producto, incluyendo su distribución. Los registros incluyen
los datos crudos que se usan para generar
otros registros. Para registros electrónicos,
los usuarios debieran definir cuales datos
serán usados como datos crudos. Dentro de
este contexto, al menos los datos sobre los
que se toman decisiones de calidad debieran considerarse como datos crudos.
• Certificados de análisis: Proveen un resumen de los resultados de los análisis efectuados sobre muestras de productos o materiales, junto con la evaluación del cumplimiento o no frente a una especificación. Los
datos contenidos pueden obtenerse total o
parcialmente sobre datos en tiempo real
(PAT) según la monografía aprobada por la
autoridad sanitaria.
•Informes: Documenta el resultado de proyectos, investigaciones o ejercicios junto
con resultados, conclusiones y recomendaciones.
Es importante destacar en esta sección la incorporación de criterios de aceptación para controles en proceso y los relativos a PAT (Process
Analytical Technology).
Se amplía el concepto de registros incluyendo
36
como tales a la distribución de lotes y la necesidad de definir claramente a qué se considerará
dato crudo incluso para registros electrónicos.
En la Generación y control de la documentación se aclara que los requisitos son independientes del modo de documentarlos. Las relaciones entre documentos ya sea electrónicos, papel
o híbridos deben ser establecidas así como el
uso de plantillas y documentos maestros. La integridad de los registros debe mantenerse a través del periodo de retención. La reproducción de
documentos de trabajo a partir de documentos
maestros no debiera permitir ningún error a ser
introducido durante el proceso de reproducción.
Los documentos conteniendo instrucciones debieran ser aprobados, firmados y fechados. Su
contenido no debe ser ambiguo, descriptos en el
orden de ejecución y fáciles de ser chequeados.
Los SOP e instrucciones de trabajo deberían estar escritos en modo imperativo.
Se describe un nuevo sub-ítem dentro del capítulo dedicado a Buenas Prácticas de Documentación:
• Las entradas manuales deberían ser hechas
en forma legible, clara e indeleble.
• Los registros debieran ser hechos o completados en el momento en que las acciones son
tomadas y de tal forma que todas las actividades relacionadas con la manufactura de productos farmacéuticos permita la trazabilidad.
La política de enmiendas no sufre cambios con
respecto a la versión anterior (la modificación debiera estar firmada y fechada, la enmienda debiera permitir la lectura de la información original
y cuando sea apropiado debe registrarse la razón
de la enmienda).
En lo relativo a Retención de Documentos debe
establecerse claramente qué registros están relacionados con las actividades de manufactura y
donde se hallan localizados. Deben tomarse medidas de seguridad para asegurar la integridad de
los registros a través de periodos de retención y
su validación cuando sea apropiado. La documentación debe mantenerse hasta un año después de
la fecha de expiración del lote o al menos 5 años
desde que el lote fue dictaminado, el que sea
mayor. Para productos de investigación clínica, la
documentación de lotes debe mantenerse al menos 5 años después de completado o del último
ensayo clínico realizado donde el lote haya sido
usado. Pueden determinarse periodos adicionales
mayores para cierto tipo de documentos.
menos que dichos datos hayan sido reemplazados
por otros nuevos. Sin embargo, dichos datos no
podrían ser reemplazados mientras esté vigente la
documentación de lotes relativos a esa validación
o estabilidad originales.
Este nuevo requisito formalmente establecido
también puede incidir en la gestión de archivo de
documentación.
Con respecto a la fórmula maestra y procesos
(fabricación y acondicionamiento) los cambios más
importantes son relativos a formalizar en la documentación los controles tendientes a demostrar
que los equipos y lugares de trabajo están libres
de productos previos y sus respectivas documentaciones, que los equipos están limpios y listos para
ser usados. Las instrucciones deben ser detalladas
y secuenciadas. La reconciliación electrónica de
materiales en la medida que sea robusta puede obviar la cantidad de materiales entregados, usados,
devueltos o destruidos. Se destaca la importancia
de disponer de instrucciones escritas para la
certificación de lote para la venta.
El cambio más importante radica en que cuando
un proceso validado sea continuamente monitoreado y controlado, los informes generados
pueden limitarse solamente a resúmenes de
cumplimiento y de fuera de especificación
(OOS).
Finalmente se destaca la necesidad de tener políticas, protocolos, informes y registros para:
• Procesos de calificación y validación, equipos
y sistemas.
• Calibración de instrumentos.
• Transferencia de tecnología.
• Mantenimiento, Limpieza y Sanitización.
• Listado de firmas de personal, capacitación en
GMP y aspectos técnicos y verificación de la
efectividad del entrenamiento.
• Monitoreo ambiental.
• Control de roedores.
• Reclamos.
• Retiros de Mercado.
• Devoluciones.
• Control de Cambios.
• Investigación de no-conformidades y desvío.
• Auto-inspecciones y auditorías de cumplimiento.
• Revisión de calidad de productos.
• Auditorías de proveedores.
Habrá que estar alerta si la autoridad sanitaria argentina modifica la política actual pues puede incidir en forma significativa en los espacios físicos o
virtuales necesarios para cumplir dicho requisito.
Si bien estos puntos mencionados precedentemente están disponibles habitualmente como
parte del sistema de documentación, se les pide
en esta nueva versión un alineamiento similar al
exigido por las guías ISO de la serie 9000, es decir
la documentación alineada como cascada. Finalmente debería mantenerse un inventario de documentos dentro del sistema de gestión de calidad.
Los datos crudos relativos a estabilidad o validaciones deberían ser mantenidos mientras la
autorización de comercialización esté vigente a
En el próximo número se detallarán las actualizaciones que la guía PIC ha realizado en determinados anexos.n
LA COLUMNA DE LOS INGREDIENTES FARMACÉUTICOS ACTIVOS Y EXCIPIENTES
Nuevas normas de buenas
prácticas de fabricación para
excipientes farmacéuticos
Subcomisión de Materias Primas Farmacéuticas
n Comité de Expertos en Materias Primas
Farmacéuticas
La difusión de la guía de buenas prácticas de
fabricación para excipientes de IPEC1 comienza a dar frutos en Latinoamérica y otros mercados emergentes.
IPEC (International Pharmaceutical Excipients
Council)2 es una organización sin fines de lucro que nuclea a profesionales de la industria
farmacéutica, fabricantes de excipientes y
distribuidores para tratar temas relacionados
con excipientes farmacéuticos. Desde allí se
discuten temas de actualidad y se desarrollan
guías para armonizar y optimizar el manejo de
excipientes con la participación de todos los
actores de la industria.
n Situación de los Excipientes en China:
Cuando hablamos de excipientes farmacéuticos, China se ha convertido en uno de los
principales proveedores en el mundo (junto
con India), con lo cual se constituye como un
país estratégico en donde estandarizar las
buenas prácticas de fabricación, ya que asegurar la calidad de estos excipientes tiene un
impacto positivo en la industria farmacéutica
a nivel mundial.
Con esto presente, IPEC China comenzó a trabajar con la autoridad sanitaria local, la CFDA
(China Food and Drug Administration), para
formalizar las buenas prácticas de fabricación
de excipientes farmacéuticos en el país. Como
fruto de esto, el 4 junio 2012 la CFDA emitió
un borrador para comentarios (durante 4 días)
de una regulación relacionada con reforzar la
supervisión de los excipientes farmacéuticos
en el país.
La regulación enfatiza el rol de la industria
farmacéutica en el control e inspección de
los fabricantes de excipientes que son utilizados en la fabricación de sus medicamentos, aunque en algunos aspectos definen
requerimientos más rigurosos que los detallados por IPEC. La versión en inglés de la
norma propuesta se encuentra disponible en
la página web de IPEC3.
Esta norma crea un sistema de clasificación
de excipientes que separa excipientes no-
38
vedosos o con alto riesgo de seguridad de
aquellos que no lo son. Exige un sistema de
pre-aprobación mediante documentos similares a los DMFs para los primeros, mientras
que maneja un sistema de registro para los
segundos. Estos sistemas tienen requerimientos de documentación e inspección diferentes
que aún no fueron claramente definidos y se
espera la publicación de un listado que identifique claramente qué excipientes se incluyen
dentro de cada categoría. La falta de precisión
en este punto genera algo de confusión en la
industria mientras se espera la reglamentación de la norma, ya que al momento de la su
publicación, este listado de excipientes no se
encontraba disponible.
Por otro lado la nueva normativa tiene elementos compartidos con FDASIA4 (Food and Drug
Administration Safety and Innovation Act),
aprobada por el Congreso de Estados Unidos
en Julio de 2012. Uno de ellos es el requerimiento a los fabricantes de medicamentos de
la presentación de un listado de excipientes,
sus fabricantes y especificaciones. Va más allá
aún, al solicitar a cada fabricante de excipientes que se incluyan también los resultados de
las inspecciones. Este listado debe ser enviado junto con el registro de los medicamentos.
Al exigir la publicación del resultado de las
auditorías a fabricantes de excipientes, la norma espera establecer un mecanismo de generación de credibilidad, otorgando créditos a
los fabricantes de excipientes que puedan ser
utilizados por la industria farmacéutica como
referencia en el proceso de selección de un
fabricante.
Finalmente la norma avanza sobre el concepto de QbD (Calidad por Diseño) asociado
a los excipientes, sobre el cual también está
trabajando la Oficina de Drogas Genéricas en
Estados Unidos (OGD por sus siglas en inglés).
En ese sentido, requiere a los fabricantes de
medicamentos la presentación de estudios
que justifiquen el cambio de un excipiente
o fabricante de excipientes. Estos estudios
deben incluir una evaluación del impacto en
el producto, el que debe ser aprobado por
la autoridad sanitaria antes de poder imple-
mentarse. Queda claro que los fabricantes de
medicamentos siguen siendo la prioridad de la
autoridad sanitaria China, y hay dudas de que
la CFDA tenga recursos para el control requerido para los excipientes5. Esto se realiza de
manera simultánea con un anuncio del Comité
de Farmacopea China, que se compromete a
aumentar el número de excipientes en la Farmacopea China, que actualmente posee 130,
a 381 para el año 20156.
n Situación de los Excipientes
en Latinoamérica
Desde su sede de IPEC Americas7, a partir del
año 2009 y a través del Dr. David Schoneker*
como representante, IPEC fue contactando a
diferentes entes de referencia en Latinoamérica para difundir el trabajo realizado y brindar
charlas de capacitación relacionadas con la
actualidad de los excipientes farmacéuticos y
sus principales desafíos. Debido a la escasa
cantidad de normativas formales relacionadas
con este tema en el mundo, y donde Latinoamérica no es la excepción, estas iniciativas
fueron bienvenidas en toda la región, lo que
llevó a la firma de un acuerdo de cooperación
con Sindusfarma en Brasil en el año 2009,
y otro con Safybi en nuestro país, en el año
2010. Actualmente se encuentra en tratativas
la firma de un acuerdo similar con Canifarma
en México.
De la misma manera que con China, IPEC
Americas se reunió con ANVISA, a partir del
interés de la agencia sanitaria en el desarrollo de normativas relacionadas con excipientes. Como fruto de estas reuniones y el
material provisto, ANVISA publicó un borrador de una normativa de buenas prácticas
de fabricación para excipientes farmacéuticos en Mayo 2012, con un plazo inicial para
comentarios hasta agosto 2012, que luego
se extendió por 60 días más. IPEC Americas
participó de esta consulta pública enviando
sus comentarios en el mes de Julio 2012,
los cuales fueron tomados en cuenta luego
de algunas reuniones y aclaraciones entre
las partes. No se publicarán nuevos borradores, y se espera que la versión final de la
volanta
titulo
titulo
titulo
copete
39
normativa sea puesta en vigencia entre el
2013 y 2014.
Entre las principales consecuencias de la normativa propuesta, se encuentra el requerimiento de que todos los fabricantes de excipientes
farmacéuticos para el mercado brasilero deberán ser auditados por ANVISA para obtener
una licencia que les permita operar en esta
industria. Para ello, deberán demostrar que
trabajan en un entrono de buenas prácticas
de fabricación, poseen un sistema de calidad
adecuado y que las instalaciones no se utilizan
para fabricar ingredientes activos. En este contexto, se le darán 12 meses para adecuarse a
los fabricantes que posean instalaciones más
antiguas, exigiendo el cumplimiento inmediato
a los fabricantes con plantas nuevas.
A partir de la firma del acuerdo en Argentina,
IPEC Americas desarrolló varias capacitaciones en Safybi, y supervisó la traducción al español de guías de IPEC para su difusión local,
trabajo que es realizado desde Safybi por el
Comité de Expertos en Materias Primas Farmacéuticas. En este momento se encuentran
disponibles en español las Guías de Buenas
Prácticas de Fabricación y de Buenas Prácticas de Distribución para Excipientes Farmacéuticos8 de IPEC en la página web de Safybi,
y los socios pueden solicitar una copia en papel si así lo desean.
IPEC está trabajando sobre el concepto de
Control Total de Excipientes (TEC por sus siglas en inglés) que fue comentado durante el
workshop del Dr. David Schoneker a Safybi
en Agosto del 2012. El mismo abarca varios
de estos aspectos para seguir avanzando en
la generación de guías cubriendo aspectos y
controles necesarios desde el diseño de un
excipiente y su fabricación hasta el consumo
del mismo como parte de un medicamento.
Si bien la industria farmacéutica convivió durante años sin reglamentación formal para los
excipientes, las guías de IPEC generaron un
marco de trabajo a ser adoptado por fabrican-
tes y usuarios de los mismos, que de a poco
comienza a verse reflejado en reglamentaciones en diferentes países del mundo. Ante el
impacto que estas nuevas reglamentaciones
generan en las diferentes agencias sanitarias
y en los mismos fabricantes de excipientes, es
esperable que existan períodos de gracia para
exigir el cumplimiento de las mismas. Es de
vital importancia, sin embargo, para quienes
producen excipientes destinados a la industria
farmacéutica y para quienes desde la industria
deben garantizar la calidad de los mismos, conocer las guías y evaluar qué medidas son necesarias para poder asegurar el cumplimiento
y, en esencia, la seguridad de los medicamentos que son liberados al mercado.
*David Schoneker es miembro del comité de
IPEC Americas, fue Presidente y Vice-Presidente de la organización, y actualmente se
desempeña como Director Global de Asuntos
Regulatorios en Colorcon.n
n Referencias
1-Guía de Buenas Prácticas de Fabricación para Excipientes Farmacéuticos –
IPEC. Versión en español en http://www.safybi.org.ar/Traduccion-GUIA-IPECGMP-FINAL-%20SEP-11.pdf
2- IPEC Federation – http://www.ipecfed.org/
3- Traducción al inglés de las regulaciones propuestas por SFDA en China: http://
ipecamericas.org/sites/default/files/SFDA_Regulation_of_Strengthening_Supervision_on_Pharmaceutical_Excipients_%20(Aug_1%2C2012)%20(1).pdf
4-http://www.fda.gov/RegulatoryInformation/Legislation/FederalFoodDrugandCosmeticActFDCAct/SignificantAmendmentstotheFDCAct/FDASIA/
5-http://www.in-pharmatechnologist.com/Ingredients/China-Looks-toTighten-Excipient-Regulations-with-Limited-Resources
6- http://www.in-pharmatechnologist.com/Ingredients/SFDA-draft-excipientguidelines-place-quality-burden-on-pharmas
7- IPEC Américas - http://ipecamericas.org/
8- Guía de Buenas Prácticas de Distribución para Excipientes Farmacéuticos
– IPEC. Versión en español en http://www.safybi.org.ar/IPEC_BPD_Guia_2006_
espanol_Revision_Final.pdf
Información de Interés
Lista de excipientes de alto
riesgo de la SFDA
La SFDA (Chinese Food and Drug Administration) ha publicado una lista de 28
expientes que se consideran de alto riesgo
y por lo tanto requerirán de una licencia de
elaboración antes de que puedan ser usados en productos farmacéuticos. La lista
completa es:
40
8 Colesterol
19 Gelatina
9 Lecitina (de yema de huevo)
20 Cápsulas de gelatina dura
10 Glicerol
21 Cápsulas de gelatina dura con
cubierta entérica
11 Aceite de maíz refinado
22 Beta-ciclodextrina, hidroxipropil
éteres (inyección)
1 Oleato de sodio
12 Ésteres de ácidos grasos de sorbitán
polioxietileno 80
2 Propilenglicol
13 Polietilenglicol 400
3 Hialuronato sódico
14 Polietilenglicol 600
4 Poloxamer
15 Polietilenglicol 200
5 Aceite de camelia (para inyección)
16 Polietilenglicol 300
26 Copolímero de glicólido y láctido
(25:75)
6 Lecitina de soja (para inyección)
17 Lecitina (inyección)
27 Ácido oleico
7 Aceite de Soja
18 Jarabe de Malta
28 Oleato de sodio
23 Lactosa
24 Lactosa anhidra
25 Etanol (para inyección)
El rincón de la espectroscopía
Determinación de impurezas
inorgánicas en productos
farmacéuticos
Dr. Fernando Iñón
Parte 1
Los nuevos capítulos USP 232 y 233, que
reemplazan el USP 231, generan nuevas
disposiciones para la determinación de
impurezas elementales en productos farmacéuticos. Con esta nueva disposición
se requiere la determinación de ciertos
elementos en particular, normalmente
referidos como metales pesados, lo que
hace necesario realizar una preparación
de la muestra en la cual la materia orgánica debe destruirse al fin de liberar y disolver en soluciones acuosas ácidas los
elementos a determinar. Por tal motivo
la velocidad y la exactitud del ensayo es
fuertemente dependiente de esta etapa
inicial, la cual es esencial para garantizar la seguridad y la calidad de los productos farmacéuticos que llegan al mercado. Así como los instrumentos espectroscópicos han mejorado y han reducido
los límites de detección, también existen
41
avances en la tecnología de preparación
de muestras para simplificar las técnicas
y asegurar digestiones completas, particularmente aquellas basadas en procesos acelerados por microondas.
La determinación de impurezas elementales
en materias primas y productos farmacéuticos intermedios y terminados ha sido por
años relativamente simplificada, puesto que
no había una exigencia de identificar cada
elemento (englobado en el término de metal pesado, expresado como plomo). Esta
falencia es significativa, puesto que la toxicología asociada a cada elemento es muy
diferente. Los nuevos capítulos USP 232 y
233 han revertido esta situación, debiéndose determinar la concentración de cada
elemento traza y el límite a garantizar depende no solo del elemento sino también de
la dosis (ingesta) esperada para el producto
en cuestión. Por tal motivo la preparación
de muestra es crucial ya que hay que garantizar la recuperación de cada elemento.
Esto demanda de mejores técnicas analíticas y de menores límites de detección para
los elementos de interés. La necesidad de
análisis más avanzados para el control de
los niveles de las impurezas elementales en
productos farmacéuticos resulta crucial. Sin
embargo, hay que tener en cuenta que esto
lleva a los laboratorios a analizar cada vez
más muestras y trabajar para lograr límites de detección más bajos que los que se
consideraban adecuados en el pasado, pero
los recursos con los que cuentan suelen ser
limitantes.
Las técnicas instrumentales determinativas
a las que hacen referencia en estos capítulos
son el plasma acoplado inductivamente con
detección óptica (ICP OES) y aquel acoplado
a espectrometría de masa (ICP-MS). La razón de la utilización de un plasma acoplado
inductivamente como fuente de generación
de la población atómica de los elementos
no es casual, ya que está demostrado que
elimina un gran número de interferencias
de origen químico. La elección entre una
detección óptica o a través de una espectro-
42
metría de masas se basa en la sensibilidad
y el límite de detección requerido en función
de la dosis del medicamento. Obviamente
hay diferencias relacionadas en cuanto al
costo de inversión, pero estas temáticas se
abordarán en una próxima nota. Si bien
los fabricantes de instrumentos como ICP
OES ó ICP-MS han desarrollado plataformas más sofisticadas y fáciles de usar que
permitan mejorar el rendimiento y realizar
análisis simultáneos de múltiples elementos
en períodos de tiempo más cortos, la (gran)
mayoría de los productos a analizar necesitan alguna forma de preparación previa al
análisis. En los análisis clásicos, la matriz
orgánica se calcina (normalmente en un
horno de mufla a una temperatura controlada) y el residuo inorgánico resultante es
digerido en un ácido débil. Otro procedimiento también implica calentar la matriz
orgánica en ácidos concentrados en una
placa calefactora. En ambos casos, empero, se necesita demasiado tiempo y existe
el riesgo de perder elementos volátiles. La
llegada de los sistemas de preparación de
muestras por microondas a mediados de la
década de 1980 redujo significativamente
los tiempos de digestión, pero los sistemas
exigían organizar las matrices de muestra
similares en lotes de entre 2 y 14 muestras.
Esta necesidad de agrupar las muestras es
importante, puede influir en el resultado
analítico e impacta en la organización del
trabajo y limita la cantidad de muestras por
día que se podían procesar.
A diferencia de otros mecanismos de calentamiento, el verdadero control del calentamiento por microondas es posible porque la
aplicación de energía puede cesar efectiva
e instantáneamente, deteniendo el calentamiento en el momento. La dirección del
flujo de calor es en sentido inverso al del
proceso tradicional, ya que las microondas
son absorbidas por el contenido dentro del
vaso, la energía se convierte en calor, y la
temperatura del contenido sube. Durante el
proceso de digestión de muestras de compuestos orgánicos se forman gases insolu-
bles como el CO2. Estos gases combinados
con la presión del vapor del solvente y del
reactivo a la temperatura alcanzada producen la presión total dentro del vaso. El calor
es trasmitido del reactivo y de la mezcla con
el solvente a las paredes del vaso y disipado
a través de conducción a la atmósfera que
lo rodea. Para sacar ventaja de esta tecnología, se le han agregado mecanismos de
control de temperatura a los primeros sistemas comerciales de digestión acelerada
por microondas para utilizar completamente
el encendido y apagado de la aplicación de
energía. Los vasos de digestión acelerada
por microondas evolucionaron de simples
vasos capaces de soportar pequeñas presiones internas a los sistemas actuales para
alta temperatura y alta presión. Fabricado
en materiales químicamente inertes y transparentes a las microondas, y diseñados para
ser livianos e increíblemente fuertes, estos
vasos permiten a la energía de las microondas concentrarse en la mezcla de reactivo
y brindan mejor control sobre la reacción.
Esto significa que se puede digerir más cantidad de muestra a mayores temperaturas
y menor presión de lo que normalmente se
esperaría. No obstante las limitaciones de
la presión máxima de trabajo del vaso aún
restringe la cantidad de muestra que puede ser usada para alcanzar la temperatura
de disolución y la máxima temperatura que
puede ser alcanzada debido a la presión del
vapor resultante de los reactivos.
La resistencia a la presión y temperatura
se han incrementado de las limitaciones
comerciales originales de 160 ºC y 120 psi
a los vasos avanzados de hoy en día capaces de realizar una digestión controlada a
240 ºC y 800 psi. Aunque pueden utilizarse
altas temperaturas, los límites de presión
todavía existen. Estos límites se deben a la
naturaleza de los fluoropolímeros utilizados
para el vaso interno y las superficies húmedas de los viales de presión. Materiales
como el PTFE (conocido usualmente como
Teflón®), que es extremadamente inerte
químicamente hablando, posee una fuerza
mecánica muy limitada. Por tal motivo se
debe evitar el uso de este tipo de materiales
a temperaturas elevadas cercanas al punto
de flujo del polímetro. El uso de compuestos
plásticos livianos permite a los materiales
inertes humedecidos ser reforzados utilizando otros componentes.
El poder de oxidación de minerales ácidos
comunes, como el ácido nítrico, se incrementa significativamente a temperaturas
de 80-100ºC sobre su punto de ebullición
atmosférico. Para materiales orgánicos,
la destrucción del carbono en sistemas de
digestión acelerados por microondas puede
realizarse solamente con ácido nítrico. Para
lograr la misma eficiencia de digestión por
métodos tradicionales se requiere el uso de
oxidantes de alta temperatura tales como el
ácido sulfúrico o el acido perclórico. Finalmente, luego del enfriamiento las muestras
mineralizadas en sistemas acelerados por
microondas son preparadas para el análisis
mediante una dilución en una matriz de baja
viscosidad. La mezcla resultante presenta
así pocos efectos de matriz.
La carga de trabajo que tiene cada laboratorio es diferente, puesto que se puede
necesitar procesar varios lotes/muestras
del mismo producto o pocas muestras de
diferentes productos. Los programas de digestión dependen fuertemente de la matriz
del producto, la cantidad de muestras a procesar al mismo tiempo así como de la masa
de muestra que pesa. Por tal motivo, una de
las primeras elecciones es saber si se está
orientado para procesar en forma eficiente
lotes grandes o tener flexibilidad para cambiar sencillamente de método de trabajo
para procesar diferentes tipos de muestras.
La digestión simultánea de muestras requiere conocer en cada tanda el número
de muestras corridas y el tipo de vaso de
digestión utilizado. Con esta información se
debe calcular la cantidad exacta de energía
necesaria para completar la digestión y aplicarla con precisión. Este tipo de tecnologías
permite procesar hasta unas 40 muestras
en menos de 40 minutos, en forma reproducible y segura. Eso sí, las muestras deben ser similares y los sistemas deben ser
capaces de determinar la temperatura (e
idealmente presión) en cada vaso al fin de
controlar la energía suministrada y verificar
la correcta digestión de todas las muestras.
Una vez terminado el ciclo de digestión, el
usuario debe retirar el carrusel de muestras
y de ser necesario cargar manualmente la
otra tanda.
El sistema secuencial de digestión es novedoso y permite la automatización de la
digestión por microondas. Al procesar cada
muestra en forma individual, el sistema puede correr diferentes tipos de muestra y matrices ácidas bajo condiciones específicamente
programadas para cada muestra. Esencialmente, cada vaso es su propio vaso de control, con monitoreo de presión y temperatura,
lo que garantiza la máxima reproducibilidad
posible a las digestiones. Otra ventaja de
estos sistemas es que se simplificó enormemente el sistema de cierre del vaso de digestión, como puede apreciarse en la foto. Aún
así, la digestión de cada muestra suele ser
inferior a 10 minutos y puede funcionar en
forma desatendida día y noche.
La determinación de metales pesados es un
nuevo desafío en la continua necesidad de
garantizar la seguridad de los medicamentos. En este contexto, es esencial contar con
un análisis simple, rápido y exacto. Las mejoras en los instrumentos de espectrometría
necesitan en paralelo avances tecnológicos
similares en la preparación de las muestras.
En este sentido los sistemas de digestión de
muestras aceleradas por microondas son
ideales para la preparación de una amplia
variedad de matrices de alimentos y ofrecen un gran avance en la instrumentación
basada en el caudal de muestras en el laboratorio.
Tanto los sistemas basados en digestión en
lotes y los secuenciales permiten ahorrar
tiempo. Además, ambos sistemas reducen
significativamente el consumo de ácido en
comparación con los métodos que utilizan
una plancha calefactora. Al realizar la digestión de las muestras en vasos cerrados,
se evita la contaminación cruzada y se hace
posible la recuperación incluso de elementos volátiles. La recuperación de analitos es
exacta y reproducible.n
43
EL RINCÓN DE LA CALIDAD
Resolución de Problemas
Cuando la prevención no fue suficiente
Dr. Mario Lisnizer
n Introducción
La gestión de calidad, interpretada como un sistema integral, puede
presentarse constituida por tres procesos:
• Planificación de la calidad
• Control de la calidad
• Mejora de la calidad.
Estos procesos se conocen como “trilogía de Juran”. 1
En esta oportunidad el artículo se focaliza en la mejora de la calidad,
y en particular en un elemento básico para su desarrollo que es la
resolución de problemas.
Si bien la voluntad cuenta, no siempre se es consciente de los beneficios resultantes al disponer de un enfoque estructurado para
resolver problemas; generalmente se espera que la intuición de los
profesionales sea suficiente y se asume que no se requiere una formación especial al respecto.
Es así, que sin una clara metodología muchos problemas siguen sin
resolverse debido fundamentalmente a las dificultades que se presentan para comprender las causas principales, las interacciones
y los efectos de variables secundarias. Esto conduce a problemas
crónicos, tolerados en la creencia de que forman parte del proceso, que no pueden manejarse o que no hay suficiente tiempo para
resolverlos. Este comportamiento debiera sustituirse por una formal
actitud de resolución de problemas.
n Normas y definiciones
Datos recientes respecto a auditorías de certificación según la norma
ISO/TS 16949 2 muestran que el deficiente tratamiento de las acciones correctivas, es la no conformidad mayor más frecuentemente
citada.
Esta misma norma, en varios aspectos más completa que la ISO
9001, requiere que el manejo de las acciones correctivas incluya los
siguientes elementos:
• Resolución de problemas
• Sistema a prueba de errores
• Impacto de la acción correctiva
• Ensayos y análisis de los productos rechazados
Además, requiere que las organizaciones cuenten con un proceso
definido para la resolución de problemas, el cual conduzca a la identificación de la causa raíz y su eliminación.
Dentro del marco de norma ISO/TS 16949, a continuación se revisarán algunos conceptos y definiciones relacionados con el proceso de
resolución de problemas.
Identificación del problema: Es un paso crítico y, aunque pareciera
obvio, en general es analizado con ligereza. No es lo mismo identificar el problema que sólo sus síntomas.
Acciones de contención: Son las acciones inmediatas que se adop-
44
tan para hacer frente a los síntomas de una no conformidad detectada. Se debe tener bien en claro que este tipo de acciones no pueden
identificarse como una resolución del problema.
Análisis de la causa raíz: Causa subyacente, más difícil de ver, que
contribuye a obtener resultados no deseados y que si no se elimina
continúa creando problemas recurrentes.
Acción correctiva: Acción requerida para eliminar la causa de una
no conformidad u otra situación indeseable detectada. El objetivo de
esta acción es evitar la recurrencia del problema.
Verificación de la eficacia: Un proceso de resolución de problemas
no puede caracterizarse como concluido sino se verifica la eficacia
de la acción correctiva implementada.
Sistema a prueba de errores: Es la acción aplicada en la etapa
de diseño para evitar errores. Más allá del diseño, la norma ISO/TS
16949 requiere a la organización utilizar métodos de este tipo en el
proceso de acción correctiva.
Impacto de la acción correctiva: Demanda que la organización
analice y aplique acciones correctivas a otros procesos y productos
que pudieran presentar problemas similares.
n Tipos de problemas
Una de las características distintivas de un correcto enfoque en la resolución de problemas es tratar de identificar el evento dentro de un
tipo o categoría de problemas ya definido. Son varias las disciplinas
que adoptan esta metodología como uno de los primeros pasos, la
medicina es una de ellas; en general con procedimientos bien estructurados tanto para el diagnóstico como para el tratamiento. ¿Por
qué no utilizar un esquema similar para los problemas de calidad?
Previo a cualquier análisis, se debiera clarificar si se trata de un
problema que requiere una acción de contención o una mejora estructurada.
Si bien lo óptimo sería poder resolver problemas hallando las causas
raíz y adoptando soluciones definitivas, no siempre es lo más recomendable como primera acción. “Apagar incendios” (como expresión figurada o real) no es estrictamente resolver el problema, pero
no hay duda que en varios casos es el comienzo posible y necesario;
luego se debería pasar a la etapa de una mejora estructurada con
una descripción del problema, seguida por una detallada investigación de las causas, la identificación de la mejor solución y la verificación de su eficacia.
Las acciones de contención, en algunos casos denominadas acciones temporarias, si se incorporan al proceso suelen agregar costo al
mismo y, por lo tanto, añaden un elemento adicional para resolver el
problema en forma permanente.
Otro criterio simple para la clasificación de problemas es el indicado
por varios especialistas como Shewhart, Juran, Kepner y Tregoe,
según el cual los problemas pueden ser ubicados en dos grupos:
esporádicos y crónicos [Ver Tabla 1], donde para cada grupo se requerirá un tratamiento diferente.
Shewhart hizo una importante observación adicional: “Los problemas con causas especiales deben resolverse antes que los proble-
mas con causas comunes”. En otras palabras, los problemas que
originen un claro pico de inestabilidad deben resolverse antes de
aquellos que se manifiestan con una conocida variabilidad.
Tabla 2. Herramientas básicas de calidad
Tabla 1. Dos tipos de problemas
Avanzando en este concepto de identificación del tipo de problemas,
se pasa a una más detallada definición de categorías, también denominada taxonomía de los problemas.
Se revisará en esta oportunidad la propuesta por Frederick Nickols 3,
quien diferencia los problemas según el tipo de acciones a encarar:
Tabla 3. Nuevas herramientas de calidad
• Reparación: Restaurar el mal funcionamiento de un sistema a su
nivel de desempeño deseado o previsto.
• Mejoras: Mejorar un sistema a niveles de desempeño superiores a
los originalmente previstos.
• Ingeniería: Diseñar un nuevo sistema.
En la Figura 1 se representa esta categorización, ampliada por otros
trabajos 4, identificándose en un segundo nivel dos tipos de problemas básicos: desempeño y diseño. Estos se dividen por último
en cinco tipos específicos de problemas de calidad: conformidad,
desempeño, eficacia, diseño de producto y diseño de proceso.
Figura 1. Taxonomía de los problemas de calidad
n Modelos y Metodologías
Si bien es propia de la naturaleza humana la búsqueda de soluciones
y que a través del tiempo se han utilizado varias estrategias para
resolver diferentes tipos problemas, se podría decir que es recién a
partir de principios de 1950 cuando especialistas en calidad comenzaron a describir y documentar modelos y metodologías específicos
para la resolución de problemas. Se citarán en principio sólo algunos
de ellos, de los cuales se cuenta con amplia bibliografía para su
consulta:
• Control estadístico de procesos: Desarrollado por W.A.Shewhart
para disponer de una descripción estadística del problema.
• Ciclo planificar-hacer-controlar-actuar (plan-do-check-act):
El ampliamente difundido ciclo de Deming con sus cuatro fases.
• Fases de diagnóstico y de remedio: Presentado por J. M. Juran
como los viajes de diagnóstico y remedio, dos claras y diferenciadas etapas para la resolución de un problema.
Aunque sin entrar en detalles en esta oportunidad, se ofrecerán algunas características de los siguientes métodos:
n Herramientas
Según la clasificación de Nickols se puede considerar a la resolución
de problemas como una tarea de reparación, mejora o ingeniería y
como tal requiere de herramientas.
Estas herramientas pueden definirse como técnicas que ayudan a
comprender un problema.
En la Tabla 2 se presentan las conocidas como herramientas básicas de calidad, las cuales tienen en varios casos un requerimiento
cuantitativo.
En la Tabla 3 se incluyen las denominadas nuevas herramientas de
calidad, las cuales facilitan un análisis y comprensión más amplia
del problema, y son principalmente no numéricas.
Método a prueba de errores (mistake-proofing) o Poka-Yoke
Se trata de un sistema anti errores, cuyo nombre Poka-Yoke proviene del japonés, Poka: Error inadvertido y Yoke (yokeru): Evitar.
Esta metodología fue perfeccionada hacia la década de 1960 por el
Ing. Shigeo Shingo, tratándose en general de diseños mecánicos,
eléctricos o electrónicos que impiden que el defecto se produzca, sin
requerir la atención humana, sea éste operador o usuario.
Las técnicas Poka-Yoke pueden clasificarse en preventivas y de
detección. Son ya mecanismos habituales en la vida diaria; como
ejemplos se pueden mencionar conectores eléctricos (USB y otros),
diseños de encastre de piezas (en líneas de montaje) o simples alarmas en caso de cometer un error.
No es cuestión de aplicar Poka-Yokes en forma indiscriminada en los
procesos industriales pero sí determinar los puntos críticos en combinación con otras metodologías, como HACCP o FMEA, y evaluar la
45
factibilidad y beneficio de aplicar un mecanismo de este tipo.
Como regla general la conveniencia del uso de técnicas Poka-Yoke
se presenta en aquellos casos de procesos hombre dependiente y/o
repetitivo. Seguramente que se encontrarán algunas oportunidades
de aplicación en las distintas áreas de trabajo de los lectores.
Benchmarking
En lugar de desarrollar una idea original, puede resultar beneficioso
investigar que han hecho otras organizaciones en situaciones similares. En principio, y lo ideal, sería investigar sobre la base de aquellas
empresas o instituciones líderes en determinados aspectos o técnicas (no necesariamente dentro de la propia actividad). En síntesis
“no reinventar la rueda” si no es necesario.
TRIZ 5
En una apretada síntesis puede decirse que se trata de un método
para la resolución de problemas, fundamentalmente de ingeniería.
Se basa en la identificación de un conjunto de características técnicas que generan conflictos y su confrontación con otro conjunto de
soluciones. A partir de estas matrices se trata de buscar analogías
para un problema determinado. Estos problemas son denominados
“problemas inventivos” y a menudo requieren la combinación de diferentes disciplinas para llegar a una solución.
Metodología de Kepner y Tregoe 6
Esta metodología distingue cuatro procesos separados:
1. El análisis de situación
2. El análisis de problemas
3. El análisis de decisiones
4. El análisis de problemas potenciales
El punto de partida es el análisis de situación, que conduce a los
otros tres procesos. En la Figura 2 se representa gráficamente la metodología, incluyéndose las principales características de cada paso.
Figura 2. Metodología de Kepner y Tregoe
DMAIC
DMAIC (define-measure-analyze-improve-control) es una de las metodologías del modelo Six Sigma.
El objetivo de Six Sigma es mejorar los resultados de calidad de
procesos mediante la identificación y eliminación de las causas de
los defectos, y minimizando la variabilidad.
La metodología DMAIC se basa en estas cinco fases:
• Definir el problema
• Medir aspectos clave del proceso y recopilar los datos relevantes.
• Analizar los datos para investigar y verificar las relaciones causaefecto. Identificar la causa raíz.
• Mejorar el proceso sobre la base de la información obtenida.
• Controlar el nuevo proceso para asegurar que no existan desviaciones.
n Resolución efectiva de problemas
Siguiendo los lineamientos de la metodología DMAIC, se podría decir
como regla que una resolución efectiva de problemas debiera considerar como mínimo los siguientes pasos:
• Definir el problema, teniendo en cuenta la “voz del cliente” (interno y externo) y de otras partes interesadas (stakeholders).
• Representar gráficamente las relaciones causa-efecto. Evitar relatos innecesarios.
• Identificar acciones para cada causa y efecto (por ejemplo método
AMFE).
• Proveer evidencias que apoyen la existencia de cada causa.
• Determinar si el conjunto de causas identificado es suficiente y
necesario para obtener el resultado en análisis.
• Proporcionar soluciones efectivas para prevenir la recurrencia,
cumplir con los objetivos y no causar otros problemas.
• Poner en práctica y verificar la eficacia de cada solución.
n Palabras finales
Por supuesto que es preferible prevenir que corregir o resolver problemas.
El diseño de los procesos y la planificación de la calidad debieran
ser lo suficientemente robustos para evitar errores y por lo tanto no
requerir la aplicación de metodologías de resolución de problemas.
Si bien este objetivo puede parecer utópico, presenta la virtud de ser
por otra parte fuertemente desafiante.
Si se encara la resolución de problemas de una manera sistemática
en su diagnóstico y tratamiento, como así mismo aprovechando el
error para evitar la recurrencia en procesos y productos similares,
se estará consolidando además el sistema de prevención en la gestión de calidad. n
n Referencias
1. Juran, J.M. Manual de Calidad – Mc Graw Hill – Madrid - 2001
2. ISO/TS 16949:2009, Quality management systems – Particular requirements for the application of ISO 9001:2008 for the automotive production and relevant
service part organization
3. Nickols, F. “Yes, It Makes a Difference” – Quality Progress, Vol. 29, N° 1
4. Smith, G.F. “Too Many Types of Quality Problems” – Quality Progress, Abril 2000
5. Shulyak, Lev. Introduction to TRIZ. www.aitriz.org/articles/40p_triz.pdf
6. Kepner, C.H., and Tregoe, B.B. The New Rational Manager – London – John Martin Publishing - 1981
46
EL RINCÓN DE LA ECOLOGÍA
¿QUÉ SUCEDERÁ CON LAS
FUTURAS GENERACIONES SI EL
DETERIORO ECOLÓGICO CONTINÚA?
Lic. Elmundo Rebuelto
El calentamiento global, la deforestación en
las zonas tropicales, la desertificación, la degradación general de los suelos, el desgaste
de la capa de ozono, el crecimiento indiscriminado de las manchas urbanas; representan una amenaza tanto para los países en vía
de desarrollo como para los industrializados,
aunque se sabe claramente que la población
más afectada será la población más pobre
de los países con menos recursos, la que
depende más directamente de los recursos
ambientales.
¿Por qué? De acuerdo a las declaraciones de
la Secretaria del Commonwealth en 1989: “en
general los países pobres y los grupos pobres
de cada nación poseen una menor capacidad
de adaptación, y suelen ser más vulnerables,
dada la mayor dependencia de sus economías
de los recursos agrícolas y naturales “.
En las conclusiones de la conferencia conjunta
del Consejo Internacional de Uniones Científicas, el programa de las Naciones Unidas para
el Medio Ambiente y la Organización Meteorológica Mundial, celebrada en 1985, se señala
que muchas decisiones económicas y sociales
–sobre materias como los sistemas de riego,
la energía hidráulica, la utilización de los terrenos agrícolas, la planificación energética,
la ayuda contra sequías y los proyectos de
ingeniería costera- se adoptan tomando como
referencias datos climáticos del pasado como
la manera más fidedigna de planificación a futuro. Sin embargo, este tipo de referencias ya
no serán funcionales dado el esperado calentamiento del clima global, como consecuencia
del efecto invernadero causado por las emisiones de gases. Es difícil predecir con exactitud que alcance tendrán estos cambios, ya
que puede aumentar la humedad en algunas
zonas, mientras otras se tornan más secas,
incrementándose en frecuencia y duración de
sequías en algunas regiones, y las inundaciones pueden causar estragos en tierra donde
no solían presentarse estos fenómenos.
La comunidad científica coincide al menos en
señalar un aspecto: el aumento de las concentraciones de gases, dióxido de carbono y
otros gases derivados del efecto invernadero
48
en las variaciones climáticas y sus impactos
colaterales (Villach, Austria, 1985) Word Climate Programme, reporte WMO-661 Consejo
Internacional de Uniones Científicas PNUAMA, OMM.
Causantes del efecto invernadero como el
dióxido de carbono, el metano, el óxido nitroso, los clorofluorocarbonos y de ozono en
las capas bajas de la atmósfera, así como el
vapor de agua provocarán un calentamiento
palpable de las temperaturas superficiales en
un plazo de décadas y no de siglos como se
pensaba. De acuerdo a estudios realizados
por el Programa de las Naciones Unidas para
el medio ambiente, con la duplicación de la
concentración atmosférica de dióxido de carbono respecto a la situación preindustrial, el
aumento promedio de la temperatura superficial global media de equilibrio se espera sea
de aproximadamente 3º C en el curso de los
próximos 50 a 70 años, acotando además que
las elevaciones de la temperatura serán superiores cuanto mayor sea la distancia en que se
encuentren del ecuador.
Dicho aumento, provocará una subida media
global de unos 30 cm del nivel del mar en el
curso de los próximos 50 años aproximadamente, favoreciendo el anegamiento de las
zonas bajas en muchos casos densamente
pobladas y aún cuando los científicos todavía no han llegado a muchas conclusiones en
torno a la magnitud de este anegamiento, se
sabe que una subida de entre uno o dos metros en el nivel del mar dejaría zonas húmedas
y tierras bajas permanentemente sumergidas,
aceleraría las inundaciones en las zonas litorales, amenazaría las estructuras costeras e
incrementaría la salinidad de los estuarios y
acuíferos próximos al litoral. Muchos ecosistemas costeros que constituyen zonas de reproducción y cría para los peces y otros recursos
marinos quedarían radicalmente alterados,
se intensificarían las marcas y las marejadas
con el consiguiente incremento de los daños
causados a los asentamientos humanos. Varios países en desarrollo, sobre todo las islas y
archipiélagos llanos se hallan particularmente
expuestos.
A menudo, se destaca el carácter global de
estas amenazas, pero se habla menos de su
aspecto “transgeneracional” y no hay que olvidar que muchos de los efectos esperados
se mantendrán para las futuras generaciones. En un mundo tan densamente poblado,
donde todos los esfuerzos humanos se basan
en las condiciones actuales climáticas, casi
cualquier variación tendrá efectos perjudiciales a corto plazo como bien lo señala la organización meteorológica mundial: “Cualquier
cambio en el clima tenderá a inducir crecientes tensiones en la sociedad, éstas podrán
tener su origen en un cambio de las prácticas
agrícolas en la disponibilidad del agua o en
la mayor variabilidad de la meteorología con
una mayor frecuencia de tormentas y otros
fenómenos.”
Ante este complejo panorama, las preguntas
son: ¿Somos conscientes de la gravedad de la
situación? ¿Pensamos en los problemas que
les dejaremos a las próximas generaciones,
y ¿Estamos haciendo algo para atenuar el impacto? n
LA PÁGINA DE LAS BUENAS PRÁCTICAS DE RRHH
LA INCORPORACIÓN DE TALENTO COMO
VENTAJA COMPETITIVA Y LA EMPLEABILIDAD
DE LOS PROFESIONALES DE LA INDUSTRIA
¿Cómo construyen las empresas exitosas los procesos de selección cuando
deciden incorporar talentos? ¿Qué herramientas utilizan las personas
talentosas para mantener su empleabilidad?
Lic. Viviana Trejo
Hoy es impensable considerar que las organizaciones puedan definir
una única estrategia para atraer y retener a los empleados, por el impacto de la incorporación de nuevas tecnologías en los procesos de
selección, por la importancia de generar una imagen de marca empleadora, por la necesidad de seducción a los diferentes públicos organizacionales. Las mencionadas son solo algunas de las causas que
generan el re-planteamiento de diferentes alternativas, al momento de
definir procesos de selección eficientes.
Este marco referencial y la incidencia indiscutible de las nuevas tecnologías (TIC), hace que se pregunte: ¿Quién se hubiera imaginado hace
unos años atrás que se podrían convocar a entrevistas a través de un
celular? ¿O hacer entrevistas a través de video conferencias? ¿O que
los postulantes ofrezcan sus competencias vía Internet? ¿O que se los
llame para realizar consultas por chat o vía Skype?
Por otro lado, ya no resulta suficiente, para atraer al personal talentoso a la organización, ofrecer únicamente estabilidad laboral y una
remuneración. Hoy en día, los postulantes talentosos requieren que
la empresa les ofrezca planes de capacitación y desarrollo, acorde a
sus competencias, un buen clima laboral, constantes desafíos, reconocimiento. Todo ello sumado a una remuneración y un paquete de
beneficios coincidente a sus conocimientos, habilidades y actitudes.
Consecuentemente, resulta imprescindible repensar los modelos y adaptarlos a los nuevos requerimientos y oportunidades del mercado laboral.
capacidad de aprendizaje, flexibilidad, innovación, trabajo en equipo,
liderazgo, capacidad de análisis, orientación a la calidad, relaciones
interpersonales y comunicación, autonomía.
Es fundamental que en el momento de la definición de la estrategia
del proceso se establezcan los pasos a seguir para cada etapa del
proceso de selección. Esta es la oportunidad para que se establezcan
las formas de contacto con los postulantes a la búsqueda, las modalidades de entrevistas (individuales, en paneles, es decir, con varios
selectores, grupales, Assesment Center Method (ACM), entrevistas
grupales) para evaluar competencias, bajo qué criterios se definirán a
los pre-candidatos, y qué propuesta definitiva y/o contrato económico
le haremos conocer al candidato seleccionado.
Se debe hacer un paréntesis para reconocer, que en todo el proceso de
búsqueda y selección se crea un contrato psicológico, el cuál merece
un análisis.
n Claves a considerar en los procesos de selección basados en
competencias por parte de las empresas
En las decisiones de configuración y diseño de los procesos de selección, se ponen en juego la filosofía y la cultura empresarial.
El aporte de RRHH a la estrategia del negocio consiste en atraer y desarrollar a los mejores talentos. Ello con el fin de generar una ventaja
competitiva, a través del establecimiento de las políticas y procesos
coincidentes con las mismas.
En primer lugar, es importante definir cuál será la estrategia del proceso de selección que se utilizará de acuerdo al puesto a cubrir. Para
ello, es indispensable establecer indicadores que permitan evaluar la
eficacia y eficiencia del proceso en su conjunto.
En general, las empresas tiene su propio proceso de búsqueda, con
un punto de partida fundamental que es la definición del perfil, en el
cual se incluyen las competencias críticas y claves que deben estar
presentes en el futuro ocupante del puesto de trabajo. Por eso, es
sumamente valioso contar con descriptivos de puestos que contengan
competencias extrínsecas e intrínsecas que debe poseer el ocupante.
Vale detenerse un momento para definir y distinguir entre competencias y conocimientos. Las competencias de un individuo se relacionan
con las características de personalidad observables, que frecuentemente predicen el comportamiento y el desempeño.
Se pueden destacar algunas competencias que comúnmente requieren las organizaciones exitosas a la hora de incorporar a su personal:
49
Siguiendo a Schein, el contrato psicológico implica la existencia de
un conjunto de expectativas conductuales, no escritas, que operan en
todo momento entre cualquier miembro y otros miembros y/o dirigentes de la organización. Las personas que desempeñan roles de empleados, tienen expectativas sobre salario, escalas salariales, jornadas
laborales, beneficios; en definitiva todos los factores que lo afectan en
su trabajo; las organizaciones, por su parte hacen lo propio sobre el
desempeño de los empleados, su fidelidad, su lealtad, etc.
Este tipo de contrato en general, difiere de los contratos legales, establecidos formalmente. La detección de este contrato en forma oportuna, permite que el empleador y el empleado puedan alcanzar el éxito
conjugando los procesos de selección con la incorporación de talento.
La definición estratégica de un buen proceso de selección, desde el
punto de vista empresarial, permitirá que la empresa:
•• Obtenga una mejor relación productividad / costo por empleado
•• Minimice los tiempos de incorporación del personal
•• Reduzca períodos de aprendizaje
•• Identifique a los empleados con potencial (key People)
Para lograr los beneficios que otorga realizar un eficiente y eficaz proceso de selección, es recomendable seleccionar individualmente las
fuentes de reclutamiento de acuerdo al perfil del puesto determinado y
a la cultura de la empresa, utilizar técnicas de entrevistas acordes con
la especificidad de la búsqueda, realizar seguimientos que permitan
corroborar la eficacia del procesos.
n Claves a considerar en los procesos de selección basados en
competencias por parte de los profesionales con alto potencial
A la hora de decidir por una reinserción y búsqueda laboral es importante tener presentes algunos aspectos y herramientas que permitirán
lograr el éxito del proceso.
Del mismo modo, que las empresas tienen que realizar una definición estratégica sobre los procesos de selección, los candidatos
que se encuentran en búsquedas laborales no deben desconocer que
también deben definir y establecer una estrategia de búsqueda de
empleo, con el fin de que se mantenga activa la empleabilidad del
individuo.
Es importante focalizarse en los aquellos que hacen que una persona
sea considerada y tenida en cuenta en el mercado laboral. El nivel de
empleabilidad se basa en variables como: los conocimientos técnicos,
las destrezas, o los oficios adquiridos a través de educación formal o
no formal, las competencias actitudinales y en general y en particular
a la actitud con la que se enfrenta la búsqueda laboral, la cual implica
tiempo, compromiso y responsabilidad.
¿Cuál es la mejor estrategia para comenzar a enfrentar un
proceso de búsqueda laboral?
1.Identificar sus competencias actitudinales
2.Analizar sus fortalezas y debilidades
3.Seleccionar las experiencias más relevantes que valgan la pena
mencionar en las entrevistas laborales
4.Identificar sus habilidades técnicas
5.Clasificar sus motivaciones
6.Preparar un plan de trabajo (leer las ofertas de trabajo en diarios, revistas especializadas, etc., ingresar la información solicitada en los
buscadores de empleo, acceder a las bolsas de trabajo de instituciones educativas o asociaciones, etc., enviar el CV a los contactos
y referidos)
Tener actualizados los datos personales y profesionales en las redes
profesionales, como ser Linkedlin o Xing, puede ser un factor clave. La
presentación bajo estas herramientas favorece el networking personal
y abarca multiplicidad de usuarios. Esta forma de identificación de
50
los candidatos por parte de las empresas, permite su localización en
forma económica y rápida.
Para encontrar el trabajo que se desea, debe evaluarse objetivamente
el propio perfil con realismo en cuanto a sus conocimientos, actitudes,
preferencias, y debilidades. La definición de estos aspectos es fundamental porque le permitirá a la persona analizar las propuestas, que
se le presenten durante el proceso de búsqueda laboral, de acuerdo
a sus impulsos motivacionales, al tipo de cultura en la cual le gusta
trabajar, al estilo de comunicación preferido, al estilo de liderazgo que
pretende de sus superiores, entre otros.
¿Cómo confeccionar un CV atractivo para que le sea de interés a
la empresa que está buscando un perfil similar al suyo?
•• Establecer los objetivos profesionales a corto y mediano plazo
•• Mencionar la capacitación formal
•• Identificar y cuantificar los logros obtenidos durante su trayectoria
laboral
•• Seleccionar las principales funciones/tareas y responsabilidades,
incluyendo los títulos de los puestos ocupados
•• Incorporar los conocimientos relacionados con el idioma, las herramientas tecnológicas y/ cursos de especialización relacionados con
la búsqueda.
•• Incluir los datos personales esenciales
•• Mencionar exclusivamente las referencias si son consideradas excluyentes en la solicitud de empleo
TIPS a tener en cuenta:
•• El CV no debe ser demasiado extenso (no más de 2 hojas tamaño
carta)
•• Debe ser escrito en un lenguaje sencillo y claro
•• Debe utilizarse un tamaño de letra no superior al estilo Arial 12
•• Puede ser confeccionado en idioma español o en otro idioma, de
acuerdo a los requerimientos de la búsqueda o el perfil de empresa
•• Deben revisarse los errores ortográficos.
¿Cómo comportarse en las entrevistas laborales?
Vale señalar, algunos aspectos relacionados al comportamiento en
una entrevista laboral, lo que, lo ayudará a tener éxito en su desenvolvimiento:
•• Llegar a horario (no adelantarse ni retrasarse)
•• Utilizar vestimenta apropiada
•• Investigar sobre la empresa a la que va a dirigirse antes de la realización de la entrevista
•• Manejar la ansiedad y las expectativas
•• Mirar a los ojos al entrevistador
•• Escuchar atentamente las preguntas que se le realizan
•• Contestar de acuerdo al tipo de preguntas (dirigidas, semidirigidas,
libres, etc.)
•• No criticar al empleador actual o a empleadores anteriores
•• Ser sincero
No hay que olvidarse que la evaluación del entrevistado comienza desde el momento en que el mismo accedió a tener una entrevista con el
personal de la empresa convocante.
Para concluir, es importante destacar que tanto atraer y desarrollar talentos como la estrategia definida por los candidatos de alto potencial
para obtener el trabajo deseado, tienen varios comunes denominadores: la motivación, la responsabilidad y el compromiso, puntos centrales a la hora de la confección de las respectivas estrategias. Cuando
esto sucede, aparece el concepto de ÉXITO, de ser un empleador
atractivo y de ser un talento requerido.
Afortunadamente ésta es una tendencia que se acentúa y genera nuevos desafíos para todos los protagonistas. n
Congreso Proceasep 2013
Procesamiento
Aséptico en la Industria
Biofarmacéutica
La Habana, Cuba, Abril 2013
Con la participación activa de destacados profesionales, Mario Bichman, Darío Casal, Víctor Maqueda
y Sandra Rumiano representando a
nuestro país especialmente invitados a disertar en el Congreso Proceasep que se llevó a cabo durante
el mes de abril. Esta reunión se desarrolla en la ciudad de La Habana,
Cuba, cada dos años.
La organizadora del mismo, nuestra colega Sara Hernández y su
La Dra. Sandra Rumiano,
nuestra columnista
jefe, Humberto Perez, merecen el
máximo reconocimiento no solo por
el intenso trabajo realizado, sino por el alto grado de participación logrado, que atrajo a colegas de México, Perú y Paraguay. El resumen
de este comentario vertido por la responsable de esta columna, es
que esta convocatoria se convirtió en una verdadera fiesta del conocimiento.
La apertura estuvo a cargo del Ing. Alberto Agraz, Director General de
BioCen Presidente del Comité Organizador, (Cuba).
PROCEASEP es uno de los eventos más importantes para los especialistas y técnicos que en Cuba trabajan en la industria biofarmacéutica,
siendo la edición de este año el Séptimo Taller y Congreso.
Los talleres pre-Congreso cubrieron los siguientes temas:
• Vidrio para uso farmacéutico: Profesores: Dr. Fabiano Nicoletti,
(Italia) y Dr. Emanuel Guadagnino, (Italia)
• Taller sobre extractables y lixiviables: Profesor: Dra. Sandra Rumiano (Argentina)
• Taller de instrumentación y mediciones y sus normativas para
áreas limpias: Profesor: Ing. Mario Bitchman (Argentina)
• Developments in process equipment and environmetal monitoring technologies in the aseptic processing of biological producs: Profesores: James Drinkwater, (UK) and Jon Nottingham, (UK)
Vista de la numerosa concurrencia.
Palco de Autoridades en el acto de inauguración
• Safety ventilation in pharmaceutical and biotech industry –
an
introduction: Professor Bengt Ljungqvist, PhD, and Assoc. Professor Berit Reinmüller, PhD, Building Services Engineering, Chalmers
University of Technology, Göteborg, (Suecia)
El Congreso contó con videoconferencias desde Europa con la participación del Dr.Agalloco y la Dra. Dima Al-hadithi.
El marco de los disertantes incluyó a colegas de Inglaterra, Dr. James
Drinkwater, Chairman of the Pharmaceutical & Healthcare Sciences
Society, UK; Gordon J. Farquharson. Chair BSI LBI/030; Chair CEN
TC243; Convenor ISO TC209 WG1. c/o Critical Systems Ltd, UK; Professor Bengt Ljungqvist, PhD, and Assoc. Professor Berit Reinmüller,
PhD, Building Services Engineering, Chalmers University of Technology, Göteborg (Suecia).
Los tópicos desarrollados fueron los siguientes:
• Extractables & Leachables: Dra. Sandra Rumiano y Dr. Alejandro
Beldarraín Iznaga, Coordinador del Comité Técnico de Analítica del
Consejo de Calidad., Cuba y una mesa redonda con la que participamos de los disertantes y el aporte de MSc. Biorkys Yáñez de
la Autoridad Sanitaria (CECMED, Cuba),y de MSc.Humberto Pérez
(BioCen, Cuba).como representante de la Industria.
• Actualización del estándar de los cuartos limpios. Cambios en la
ISO 14644-1 para 2014, su impacto en nuestras BPF , Gordon J.
Farquharson
• “Esterilidad por diseño”/ “Sterility by design” James Agalloco, Agalloco & Associates, Belle Mead, NJ, USA
• “Consideraciones especiales en los ambientes de manufactura de
biológicos”, Dr. James Drinkwater
• “Agua para Inyección y Vapor Puro en la industria farmacéutica:
aspectos clave de diseño y validación”, Victor Maqueda, Experto y
Consultor en BPF, Argentina.
• “Movimientos del aire en áreas críticas con flujo unidireccional –
Evaluación de los lugares de monitoreo” Professor Bengt Ljungqvist,
PhD, and Assoc. Professor Berit Reinmüller, PhD, Building Services
Engineering, Chalmers University of Technology, Göteborg, (Suecia)
• “Inspección óptica de partículas” Darío Casal, Experto y Consultor
en BPF, Argentina. n
51
Novedades terapéuticas
Desarrollan un método eficaz
y económico para purificar la
eritropoyetina
Su uso llevó a que los pacientes requiriesen menor cantidad de
transfusiones y en consecuencia, estuviesen menos expuestos a los
inconvenientes que implica recibir sangre de dadores.
La eritropoyetina humana recombinante es una hormona glicoproteica que se usa para tratar a pacientes con insuficiencia renal que
requieren de diálisis, y en otras anemias, como las asociadas a las
terapias de cáncer, hepatitis C y Sida. También se la utiliza en el
tratamiento o la prevención de la anemia del prematuro. En la actualidad, se la postula, además, como candidata terapéutica para
otras patologías.
Los métodos de producción actuales son costosos, ya que demandan sucesivas etapas de purificación. La eritropoyetina adquirió renombre en la prensa mundial, desafortunadamente, por varios escándalos de dopaje en el deporte, en especial en el ciclismo de alta
competición, por lo que fue llamada la “droga del ciclista”, dada su
capacidad de incrementar la producción de glóbulos rojos en corto
tiempo.
Por citar uno de los casos más resonantes y aciagos: el del recordado ciclista italiano Marco Pantani, “Il Pirata”, a quien se consideró
uno de los mejores escaladores de todos los tiempos. Había sido
campeón del Giro de Italia y del Tour de Francia en 1998. En 1999,
luego de haber ganado en cuatro etapas del Giro y haberse constituido en líder de la competencia, fue descalificado al superar la tasa
permitida de hematocrito -porcentaje del volumen total de sangre
compuesta por glóbulos rojos-, lo que muy probablemente significaba que había consumido EPO, sustancia prohibida dado que produce
una mejora significativa de la marca deportiva en los ejercicios de
larga duración. El 14 de febrero de 2004, a los 34 años, Pantani fue
hallado muerto en la habitación de un hotel en Rímini, debido a una
sobredosis de antidepresivos y cocaína, droga a la que era adicto.
La producción de eritropoyetina recombinante humana (EPO
rh) requiere de un complejo proceso de separación y purificación para aislarla del medio de cultivo en el cual es producida.
“Los procedimientos pueden demandar entre un 60 y 80% de
los costos totales de producción. Esto es debido a que los criterios de calidad requeridos para los productos que tendrán uso terapéutico son muy estrictos”, explican los investigadores María
Martínez-Ceron, Mariela Marani, Marta Taulés, Marina Etcheverrigaray, Fernando Albericio, Osvaldo Cascone y Silvia Camperi,
en un artículo reciente de la revista “ACS Combinatorial Science”.
Debido a que la administración de la EPO rh es parenteral, es decir,
se introduce en el organismo por vía subcutánea intravenosa, la hormona debe tener un grado de pureza mayor al 99% y es, por lo tanto,
la purificación el paso crítico en su proceso de producción. La EPO
humana nativa fue purificada por primera vez en 1977 por T. Miyake
y colaboradores, a partir de orina de pacientes con anemia aplásica
severa, un trastorno por el que se produce un desarrollo defectuoso
o incompleto de las líneas celulares de la médula ósea. Desde que
F. Lin descubrió el gen, en 1984, se pudo obtener la EPO recombinante
humana (EPO rh) de uso terapéutico que es equivalente, inmunológica y funcionalmente, a la que fabrica el organismo. Es el principal regulador fisiológico del proceso de maduración y diferenciación de los
52
progenitores hematopoyéticos eritroides en la médula ósea. Además,
mantiene los niveles fisiológicos de los glóbulos rojos circulantes.
“Normalmente, el proceso de purificación consiste en múltiples
etapas de separación. En consecuencia, se hace necesario mejorar
cada etapa, considerada en forma individual, pero también, combinar estos pasos de modo adecuado para incrementar la eficacia
global del proceso”, explica Cascone.
El método desarrollado por este equipo de investigadores de las universidades de Buenos Aires, del Litoral y Barcelona, opera en tres
pasos: en primera instancia se obtiene un sobrenadante de cultivo
libre de células por centrifugación o filtración. “El segundo paso consiste en acondicionar ese sobrenadante por diafiltración y, el tercero,
en purificar la EPO rh por cromatografía de afinidad con péptidos
inmovilizados en un soporte adecuado. Estos péptidos son seleccionados por screening de una biblioteca combinatoria sintética”,
detalla Camperi.
Es decir, este proceso resulta particularmente eficiente debido, por
un lado, a la alta selectividad que se establece entre la proteína y el
péptido; y por el otro, dado que conjuga las etapas de captura y de
purificación fina en un solo paso, simplificándolo de modo notable
y haciendo que los costos de producir eritropoyetina recombinante
humana desciendan de modo considerable. n
26 .04 .13
Agencia de Noticias para la Difusión
de la Ciencia y la Tecnología (DiCYT)
ALENTADORA NOTICIA
Exitosa participación argentina en la Convención
Internacional de Biotecnología de Chicago
El ministro de Ciencia, Tecnología e Innovación Productiva, Dr. Lino
Barañao, encabezó la delegación nacional que participó en el mayor evento de la industria a nivel global. El pabellón argentino en la
BIO 2013 reunió a 32 empresas e instituciones que mostraron sus
desarrollos al mundo en la Convención Internacional BIO 2013,
que se realizó en Chicago entre el 22 y el 25 de abril. Organizado
por la Biotechnology Industry Organization (BIO), el evento convocó a 1.722 expositores y cerca de 14.000 líderes de la industria
provenientes de 62 países, junto a autoridades internacionales y
personalidades destacadas del sector. El pabellón argentino estuvo organizado por el Ministerio de Ciencia, Tecnología e Innovación
Productiva y el Ministerio de Relaciones Exteriores y Culto, y ocupó
parte de los 180.000 metros cuadrados de superficie expositiva.
La Convención Internacional BIO se desarrolla desde 1987 y ofrece
oportunidades estratégicas de reunión y comercialización para ese
sector industrial. Este año, el evento cerró con el récord de 25.573
citas de negocios preacordadas y más de 125 sesiones de trabajo, que
se refirieron a temáticas tales como biocombustibles y productos químicos de base biológica, patentes en biotecnología y transferencia de
tecnología, desarrollo de negocios, finanzas, alimentación y agricultura. Nuestro país participa desde 2006 en este encuentro internacional,
y en esta edición cuatro empresas fueron invitadas por la cartera de
Ciencia. Entre ellas estuvieron las start up Biomatter, Bioimanay, Laboratorio de hemoderivados y Raomed.
Otras empresas e instituciones presentes en el pabellón argentino
fueron: el Consejo Nacional de Investigaciones Científicas y Técnicas
(CONICET); la Cámara Argentina de Biotecnología; el Foro Argentino
de Biotecnología; A8 Bio Clinical Services; Bioceres (Indear y Verdeca); Amega Biotech; Arcor; Berken IP; Biocódices; Biogenesis Bagó;
Bioprofarma; Biosidus; Centro de Diagnóstico Molecular; Chemo Argentina; Diagramma S.A.; Laboratorio Elea; Gador; Grupo Bioquímico;
el IIB INITECH UNSAM, conformado por el Instituto de Investigaciones
Biotecnológicas y el Instituto Tecnológico de Chascomús; Inmunova;
Laboratorios Beta S.A.; Molinos Río de la Plata; Pharma ADN; Vicentin;
Wiener Laboratorios; y los mencionados ministerios, en su carácter de
organizadores del pabellón.
En Argentina alrededor de 120 empresas se dedican a la producción de
biotecnología y se concentran principalmente en el campo de los medicamentos y otros insumos para el cuidado de la salud humana, la producción de semillas y micropropagación, la sanidad y manejo ganadero
y la reproducción humana asistida. En la actualidad, estas empresas
emplean alrededor de 3.000 personas. Según estimaciones realizadas
durante los 15 años transcurridos desde la adopción de la técnica de
modificación genética vegetal, más de 1.800.000 puestos de trabajo relacionados con estas tecnologías fueron creados en nuestro país.
La edición 2014 de la BIO tendrá lugar en el San Diego Convention
Center, ubicado en la ciudad de San Diego, California, entre el 23 y el
26 de junio. n
53
EL ATELIER DEL ARTISTA
PETER PLODER
54
INFORME EUROPA PRESS, publicado en Salud para todos
Europa exigirá nuevos requisitos
a los fabricantes y distribuidores
de medicamentos para evitar las
falsificaciones
La normativa europea exigirá nuevos requisitos a los fabricantes
y distribuidores de medicamentos para evitar las falsificaciones,
por este motivo se ha celebrado en el Ministerio de Sanidad
una jornada Informativa, clausurada por la secretaria general de
Sanidad y Consumo, Pilar Farjas, que tenía como objetivo dar a
conocer las nuevas medidas.
El encuentro también ha servido para explicar que su incorporación
a la legislación española, que tendrá lugar en los próximos meses, incluirá nuevos requisitos técnicos aplicables a la fabricación
de medicamentos, como consecuencias de la actualización de la
guía de normas de correcta fabricación. La Agencia Española de
Medicamentos y productos Sanitarios (AEMPS) trabaja, desde el
momento de la publicación de la directiva, en la revisión del marco legislativo nacional para su incorporación al derecho español,
“trabajos que están muy avanzados y que culminarán previsiblemente en los próximos meses”. Esta iniciativa se formuló
ante la preocupación de los legisladores de la Unión Europea por
la falta de protección de los ciudadanos frente a los medicamentos falsificados, dando como resultado la mencionada Directiva, la
2011/62/UE.
La nueva normativa incluye nuevos requisitos para los distribuidores y unas “Buenas prácticas de distribución”, recientemente
publicadas por la Comisión Europea, que reforzarán las garantías
de seguridad en el suministro de medicamentos. Además, se pretenden reforzar los controles y las garantías de los principios activos, que se utilizan en la fabricación de medicamentos, distribución o importación desde terceros países. Finalmente, la directiva
incide en los dispositivos de seguridad que permitirán la identificación individual, a nivel de envase individual, de los medicamentos
y la verificación de la autenticidad en la cadena de distribución y
dispensación. “Aspecto este último pendiente de que tras la
publicación, prevista para 2014, del acto delegado en la Comisión se inicien los trabajos de transposición”, señalan.
Asimismo se han incorporado a la directiva una serie de disposiciones específicas para aumentar la seguridad de los ciudadanos
en el comercio electrónico de medicamentos, ya que la compra en
sitios web ilegales es considerada una de las vías más importantes
llegada de medicamentos falsificados a los consumidores europeos. Además del cambio legislativo, en la jornada informativa se
han expuesto los cambios recientes en las normativas y directrices
técnicas aplicables a la fabricación de medicamentos. También se
trataron brevemente otros aspectos de la guía que están siendo
revisados por los grupos de expertos de la Agencia Europea de
Medicamentos (EMA), como los capítulos 3 (locales y equipo) y 5
(producción), en relación con las instalaciones dedicadas; el capí-
tulo 6 (control de calidad) o el capítulo 8 (reclamaciones y retirada
de productos)
La jornada ha servido para transmitir a la industria las principales
novedades en el ámbito normativo y técnico a nivel de la UE y para
que el sector pueda plantear sus dudas sobre las materias tratadas
con el fin de facilitar la implantación de las mismas. n
55
NUESTROS PROVEEDORES
Reología de una dispersión
Un método rápido para predecir la sedimentación
de partículas en las dispersiones líquidas
n Introducción
Existe una gran variedad de productos que
pueden clasificarse como dispersiones liquidas. Se debe a que las dispersiones acuosas
tienen varias ventajas, por ejemplo un nivel
de viscosidad más bajo en comparación con
las soluciones de concentración de soluto y
a que el agua es más aceptable que los solventes orgánicos. Uno de los requerimientos más importantes para
estos productos es que la fase dispersa permanezca estable y no sedimente durante varios meses o incluso durante años. Los fabricantes
necesitan producir productos estables. Los productos inestables no
solo resultan costosos para su manufactura, sino, como en el caso
de los medicamentos, pueden resultar perjudiciales para el paciente.
Algunas de las pruebas de estabilidad que se realizan en la actualidad insumen períodos de prueba demasiado prolongados y aquellos
ensayos de envejecimiento acelerado pueden no ser confiables. Si la
prueba de estabilidad no es conducida de manera adecuada, se corre
el riesgo de que el producto sea inestable. Por lo tanto, es imperioso contar con una herramienta rápida para el análisis de estabilidad
de las dispersiones líquidas. Los expertos en reología y los científicos
que trabajan con coloides han logrado un progreso considerable en la
comprensión de las relaciones entre la reología de las dispersiones
liquidas, las soluciones de polímeros, los fluidos complejos y su físico
química, estructura y morfología. Específicamente, los mayores avances se realizaron en establecer una relación entre la reología de las
dispersiones y la velocidad de agregación de las partículas. A lo largo
de los años se desarrollaron diversas teorías los modelos de flóculos,
como Rouse, DLVO para coloides de carga estabilizada y la ecuación
de Poisson-Boltzmann et al.
En el mejor de los casos, estas teorías son semi cuantitativas, debido
a sus supuestos simplificados. Para obtener mayor información, vea
las referencias [1-5].
Los experimentadores se beneficiaron con estas teorías porque colaboran en el diseño de las pruebas reológicas adecuadas y en el
análisis de los resultados. Lo mas revelador es que las dispersiones
líquidas son formaciones complejas de partículas, llamadas flóculos,
que son atraídas por las fuerzas de van der Waal más cercanas y las
interacciones hidrodinámicas. Las dispersiones son fluidos reológicamente complejos que combinan los comportamientos viscosos y elásticos, que pueden ser descriptos por un espectro viscoelástico – un
barrido de frecuencia oscilatoria. Un espectro completo debe cubrir
todos los tiempos de relajación, de modo tal que la dependencia de
frecuencia de las funciones del material, el almacenamiento y los módulos de pérdida, se extiendan hasta las regiones de plateau terminal
del espectro. Las mediciones de velocidad regular de cizallamiento
también son de gran valor para determinar la hidrodinámica de las
dispersiones.
La estabilidad de la dispersión de una partícula dependerá del
equilibrio entre las fuerzas de atracción y repulsión que experi-
56
mentan las partículas cuando se aproximan
entre si. Para mantener la estabilidad de la
dispersión, deben dominar las fuerzas de repulsión. Los técnicos usan varias aproximaciones para estabilizar las partículas dispersas en líquidos. Los métodos más comunes
para estabilizar partículas en suspensiones
acuosas son las estructuras de red, electroestáticas y esteáricas. Recientemente, se realizaron informes
que indican que la incorporación de nanoparticulas en los coloides
mejora la estabilidad. [6].
La estabilización electroestática afecta las interacciones de la
partícula debido a la distribución de las especies cargadas en el
sistema y puede estar influenciada por varios factores tales como
el pH y/o la concentración y el tipo de electrolito presente. Estas
variables influyen fuertemente en las propiedades reológícas de
las dispersiones y en la estabilidad. Un balance apropiado de las
fuerzas de atracción y repulsión es el método primario para lograr
una suspensión estable.
La interacción electroestática entre las partículas coloidales está directamente relacionada al potencial zeta de la muestra. La magnitud
del valor del potencial zeta es una indicación de la fuerza repulsiva
electroestática presente y puede utilizarse para predecir la estabilidad a largo plazo del producto. [7]. El efecto del pH o de la fuerza iónica del medio o la concentración de un aditivo en el potencial zeta y
la reología de la muestra pueden brindar información para maximizar
la estabilidad de una formulación. Para que la reología experimental
juegue un papel significativo en la predicción de la estabilidad de
una dispersión de partículas en un medio liquido, la técnica de medición debe ser sensible a diferencias viscoelásticas extremadamente
pequeñas o cambios fisicoquímicos y estructurales de la dispersión.
Esto permite la efectiva investigación de la muestra en reposo.
n Fase experimental y discusión de resultados
En este artículo se analizará un estudio de dos dispersiones muy similares, que se denominarán muestra A y muestra B. La muestra A
sedimenta mas rápidamente que la muestra B, pero ambas muestras
sedimentan tan lentamente que habrá que esperar varios meses para
observar alguna diferencia en la vida de estantería. El objetivo de este
artículo es mostrar de qué manera la reología puede probar e identificar las diferencias de estabilidad.
Ambas muestras son coloides de carga estabilizada con 25 % p/p de
partículas dispersas. Se realizaron las siguientes mediciones: barridos de tiempo de frecuencia simple oscilatoria, barridos de amplitud
y barridos de frecuencia en un rango de temperatura de 5 a 35°C.
Finalmente, las curvas maestras están preparadas para extender el
módulo de almacenamiento (G’∞) a la región plana de sus espectros
viscoelásticos. Para poder analizar la estabilidad de la dispersión
es crítico extender la región de alta frecuencia mas allá del límite
superior típico de un reómetro rotacional (ver también Lionberger y
57
Figura 1: Barridos de Amplitud
Figura 2: Resultados de barrido de frecuencia
(O – Muestra A + - Muestra B)
Russel [8] y Shikata y Pearson [9]). Más adelante se analizará este
tema con mayor profundidad. Para generar curvas maestras es importante que no cambie la fase de la muestra dentro del rango de
temperatura de medición. Para la identificación se debe inspeccionar
la curva maestra y asegurar que el factor de cambio funcione igual
de bien tanto en el almacenamiento como en los módulos de pérdida. La primera prueba a realizar en una muestra desconocida es el
barrido de tiempo de frecuencia simple oscilatoria para determinar
el tiempo que la muestra necesita para alcanzar y mantener la estabilidad. Este tiempo permitirá la reconstrucción de la estructura
posible a partir de la carga de la muestra e indicará cualquier efecto
de la evaporación apreciable del solvente. En las muestras A y B
tardó tres minutos en alcanzar un valor G’ constante. Si la muestra
no logra un valor estable no debería realizarse ninguna otra prueba.
El siguiente ensayo es el barrido de amplitud. El propósito de este
ensayo es determinar la región viscoelástica lineal (la cantidad de
muestra que puede tensarse sin modificaciones en su estructura).
La tensión donde G’ comienza a disminuir es la tensión crítica. Si la
estructura intrínseca de una muestra debe ser medida a través de la
reología, la prueba debe llevarse a cabo por debajo de esta tensión
crítica. Se realizaron una serie de barridos de amplitud con rangos de
temperatura de 5 a 35°C y frecuencias de 1 a 50 Hz.
La Figura 1 muestra los barridos de amplitud de ambas muestras
probadas a 25°C y 1 Hz. La tensión crítica es 0,22 unidades de tensión para ambas muestras. Se observan diferencias muy leves en las
funciones del material, el almacenamiento y el módulo de pérdida. El
siguiente es el barrido de frecuencia. Esta prueba es de fundamental
interés porque G’ está directamente relacionada con las fuerzas inter
particulares. A partir de la teoría desarrollada por Bergenholtz et al
[10], la relación entre el modulo de región plana de alta frecuencia
y el potencial de interacción está dada por la formula Zwanzig y
Mountain [11]. La siguiente ecuación relaciona el modulo de almacenamiento de frecuencia alta, G’∞, con la interacción del potencial
entre las partículas:
de frecuencia; en términos más simples cuando es un número Deborah alto. Por lo tanto, para predecir una dispersión más estable hace
falta un valor G’ elevado a frecuencias altas (por encima de 100 Hz).
Los barridos de frecuencia en cada temperatura fueron realizados
a una tensión de 0,1 unidades para continuar dentro de una región
viscoelástica lineal. El objetivo de esta prueba es determinar las características de relajación de las unidades de flujo, partículas y flóculos, como así también sus interacciones complejas. En la Figura 2 se
observa una comparación de la dependencia de la frecuencia de las
funciones de los materiales para las muestras A y B. Estos gráficos son
idénticos a 25°C. Las funciones viscoelásticas están dominadas por la
reología de las unidades de fluidez de flóculos discretos. Los módulos
de pérdida y de almacenamiento (G’ y G’’ respectivamente) se aproximan a una pendiente limitante sobre una escala doble logarítmica,
definiendo la región final. Se está frente a una excepción cuando los
flóculos se asocian formando una estructura de red, y en ese caso G’
se estanca a frecuencias decrecientes.
Para las muestras A y B es necesario llevar a cabo pruebas que revelen
las interacciones entre flóculos. Estos resultados se encuentran en la
región plana del espectro viscoelástico donde las relajaciones brownianas disminuyen. En el caso de las unidades de flóculos sujetas a
frecuencias bajas, la auto difusión originada por el movimiento de traslación browniana domina y previene un desorden ocasionado por los
planos de corte. Es comprensible que la escala de tiempo para ordenar
el estado de reposo de las unidades de fluidez sea de milisegundos o
menor en el caso de las dispersiones acuosas de baja viscosidad. Por
lo tanto, para determinar el efecto neto de las fuerzas de atracción y
repulsión es necesario determinar el valor de los módulos de almacenamiento en la región plana de alta frecuencia (en el rango de 200 Hz
para estas muestras). El único modo de lograrlo es con un algoritmo
de superposición de tiempo y temperatura para calcular las curvas
maestras para las dos muestras, A y B.
Los cambios horizontales de los datos de frecuencia y temperatura a
35°C como temperatura de referencia revelan el motivo clave por el
cual la fase dispersa de la muestra A sedimenta con mayor rapidez
que en la muestra B. La Figura 3 muestra la curva maestra para la
muestra B y la Tabla 1 presenta los datos comparativos. Se puede
observar que los datos de frecuencia baja son casi idénticos para las
muestras A y B. A medida que la frecuencia aumenta, se presentan
diferencias mayores en los módulos de almacenamiento. A 200 Hz los
módulos de almacenamiento G’ de la muestra B son de 48,59Pa y en
la muestra A son de 39,97Pa. Esto significa que la muestra B tiene una
carga de potencia de interacción de mayor efectividad que la muestra
A, a partir de la fórmula Zwanzig y Mountain.
donde a es el radio de la partícula, Ф es la fracción de volumen de las
partículas, g(r) es la función de distribución radial y ψ (r) es el potencial de interacción entre las partículas. El módulo de almacenamiento
refleja el potencial de interacción entre las partículas cuando la escala
de tiempo de los tiempos de relajación de movimiento browniano de
las partículas es prolongado en comparación con la escala de tiempo
58
Figura 3: Curva maestra para la muestra B
Tabla 1: Resultados de la curva maestra
Figura 4: Mediciones de cizallamiento Regular
(O – Muestra A, + - Muestra B)
n Conclusiones
La reología experimental puede identificar rápidamente las
funciones materiales importantes que controlan la estabilidad
de las dispersiones liquidas siempre que el espectro viscoelástico cubra la región de plana de alta frecuencia. Para lograrlo
deben producirse curvas maestras válidas. Para asegurar la
validez de los análisis, es necesario realizar todas las mediciones en la región viscoelástica lineal en un nivel que este bien
por debajo de la tensión critica. n
Las mediciones del barrido de tasa estable también fueron llevadas a
cabo como se muestra en la Figura 4. El comportamiento de las dos
muestras es prácticamente el mismo a lo largo de la casi totalidad del
rango de velocidad de cizallamiento de 0,1 a 500s-1. La relación CoxMertz (velocidad de cizallamiento relacionada con frecuencia oscilatoria) no necesariamente contiene las dispersiones porque los campos
de cizallamiento regular y oscilatorio no tienen la misma estructura de
unidad de fluidez.
n Referencias
1. Firth, A.B. and Hunter, R.J., Journal of Colloid and Interface Science, Vol.
57, No.2, 248 (1976).
2. Van der Vorst, B. and coworkers, Rheol. Acta, Vol. 34, 274 (1995).
3. Behrens, S.H., Langmuir 2000, Vol.16, 2566 (1999).
4. Mewis, J., Advances in Colloid and Interface Science, Vol. 6, 173 (1976).
5. Russel, W.B., J. Rheology, Vol. 24, No.3, 287 (1980).
6. Tohver, V. and coworkers, www.pnas.org/cgi/doi/10. 1073
pnas.1510630987.
7. Puede encontrar más información sobre la medición y el uso del potencial
zeta en www.malvern.com
8. Lionberger, R.A., and Russel, W.B., J. Rheology, Vol. 38, 1885 (1994).
n Malvern Instruments Ltd
Enigma Business Park • Grovewood Road
Malvern • Worcestershire • UK • WR14 1XZ
Tel: +44 (0)1684 892456 • Fax: +44 (0)1684 892789
n Malvern Instruments Worldwide
Centros de Ventas y Servicio técnico en más de 50 países, para obtener más
información visite www.malvern.com/contact
59
NUESTROS PROVEEDORES
Agua Ultra Pura
Sartorius
Para el análisis de trazas con ICP-MS
La Espectrometría de Masas de Plasma Inductivo Acoplado (ICP-MS)
es una técnica de análisis multi-elemental altamente sofisticado que
se utiliza cada vez más para el análisis de trazas en las industrias
farmacéuticas, alimentos y bebidas, medioambiente así como en laboratorios analíticos.
La técnica ICP-MS es capaz de analizar límites de detección de hasta
sub-ppt (partes por trillón), las cuales sólo se pueden lograr en el ambiente de una sala limpia.
Dado que el agua es utilizada en ensayos para análisis de trazas elementales con ICP-MS, es obvio que cualquier contaminación del agua
puede comprometer un análisis entero. Por lo tanto, el agua utilizada
deberá ser de unacalidad de grado analítico, por ejemplo agua ASTM
Tipo I. El objetivo de la serie de ensayos analíticos descrito abajo es
para asegurar que el agua ultra pura generada por los equipos de
agua Arium Pro UV tiene un alto nivel de pureza (en este caso libre de
elementos metálicos y no metálicos respectivamente) y que pueda ser
utilizada sin ningún Problema para el análisis de elementos en trazas
realizados por dispositivos ICP-MS.
cluyendo el análisis de datos (de acuerdo a Worley and Kvech (1)).
n El sistema de agua ultra pura
El equipo Arium por UV (fig. 1) está diseñado para Producir agua ultrapura desde fuentes de agua pre tratada para eliminar trazas de
contaminantes residuales. Para la purificación general de agua, son
utilizadas tecnologías varias (destilación, ósmosis inversa, desionización, y electro desionización).
La Producción de agua ultra pura con ARIUM requiere recirculación
continua y flujo constante. Esto se lleva a cabo a través de un sistema
de bombas con regulación de presión. La conductividad del agua de
alimentación es medida a la entrada y en la salida de agua (Producto
intermedio). El contenido de carbono orgánico total (TOC) es controlado por un monitor de TOC.
El Proceso de purificación real depende del modelo de Arium y de la
tecnología utilizada. Este sistema trabaja con dos conjuntos de cartuchos diferentes.
Los cartuchos contienen carbón activado adsorbente especial y un
lecho mixto de resinas especial de intercambio iónico diseñado para
entregar agua de alta pureza con un bajo nivel de extractables. En el
sistema, una lámpara UV, emite a 185 y 254 nm y es utilizada como
agente germicida y oxidante. Un filtro final de 0,2 µm a la salida se instala para eliminar las partículas y bacterias del agua ultra pura, desde
donde el agua ultra pura es dispensada. El proceso general descrito es
representado en la figura 2.
n El Método de Ensayo
Los ensayos fueron llevados a cabo con el equipo de agua ultra pura
SartoriusArium Pro UV en una campana de flujo laminar Clase 1.
Las muestras fueron tomadas del punto de dispensación (sin el filtro
final instalado) y fueron analizadas con un sistema ICP-MS 7500s
(Agilent) (2).
n Los Resultados
Fig. 1: El sistema de agua ultra puraAriumPro UV
n Principio de la tecnología ICP-MS
La tecnología ICP se basa en los principios de la espectroscopia de
emisión atómica. Las muestras son descompuestas en iones cargados
positivamente basándose en su proporción masa/carga en un plasma de
argón a alta temperatura pasando posteriormentea través de un espectrómetro de masas para la detección. En principio, el ICP-MS consiste
de los siguientes pasos: preparación de la muestra y la introducción,
generación del aerosol, ionización por una fuente de plasma de argón,
separación de la masa, e identificación por el sistema de detección, in-
60
El análisis de trazas de elementos requiere reactivos y/o solventes
y agua de alta pureza para asegurar que no altere la precisión del
instrumento ICP-MS. Por ejemplo, el agua pura es necesaria para
crear blancos de instrumentos, curvas de calibración, y soluciones
estándares.
El agua purificada también es necesaria para la preparación de muestras y por lo tanto debe estar libre de esos elementos que están bajo
investigación.
Las soluciones estándares de los elementos mencionados a continuación fueron inyectadas con un blanco del instrumento (valor cero) en
un sistema ICP-MS para generar curvas de calibración. Las figuras 3
y 4 muestran ejemplos de las curvas de calibración de Plomo (fig. 3) y
Cromo (fig. 4) como una función del valor de la señal trazada versus la
concentración del elemento expresada en ppt.
Fig. 2: Dibujo esquemático del principio operativo del sistema
de agua ultra puraArium Pro UV
Tabla 1: Análisis de trazas en el agua producida
por el Arium Pro UV
Elemento
Límite de
detección en
ng/L (ppt)
Concentración en Arium Pro
UV del agua producida (0,055
µs/cm)
Arsênico As
1 ppt
Debajo del límite de detección
Boro B
10 ppt
Debajo del límite de detección
Cadmio Cd
0,5 ppt
Debajo del límite de detección
Cromo Cr
0,5 ppt
Debajo del límite de detección
PlomoPb
0,5 ppt
Debajo del límite de detección
Mercurio Hg
5 ppt
Debajo del límite de detección
Selenio Se
10 ppt
Debajo del límite de detección
n Conclusión
Figura 3: Curva de calibración típica para Plomo Pb (CPS =
conteos por segundo)
Se puede visualizar claramente que bajo las condiciones de ensayos
dadas, las cantidades de los diferentes elementos en ng/L (ppt), especificados arriba, están por debajo de los límites de detección. Para
alcanzar esta alta calidad de agua, todas las partes del sistema incluyendo las tuberías han sido diseñadas especialmente para la aplicación ICP-MS y son utilizadas para la producción en serie de los dispositivos Arium Pro UV. Los resultados obtenidos ilustran claramente que
el agua ultra pura producida por Arium Pro UV es excepcionalmente
adecuada para el uso con la tecnología ICP-MS ya que las fuentes de
error o los riesgos de inexactitudes debido a la presencia de trazas de
elementos mencionados, se han prevenido.
Estas condiciones son un requisito para el análisis de trazas en industrias farmacéuticas y medioambientales así como en laboratorios
analíticos. n
Figura 4: Curva de calibración típica de Cromo Cr (CPS = conteos
por segundo)
n Agradecimientos
Agradecimiento especial para ATU GmbH – AnalytikfürTechnikundUmwelt por la literatura y los resultados provistos, así como las discusiones relativas a la tecnología de ICP-MS descripta.
n Referencias/Más información
[1] Información publicada por Worley, Jenna and Kvech, Steve en Internet.
[2] Reinstwasseranalyse am Auslauf der “Arium Pro UV Anlage“ ATU
GmbH-Analytik für Technik und Umwelt, Herrenberg, 2011
n Autores
Las concentraciones de cada elemento en las muestras ensayadas
fueron calculadas a partir de las curvas correspondientes y se visualizan en la tabla 1.
Dr. Elmar Herbig, Sartorius, Goettingen, Germany;
M. Reutz and R. Braitmayer, ATU GmbH, Herrenberg, Germany
n Contactos
Sartorius Weighing Technologies GmBH- Goettingen, Germany
[email protected] / www.sartorius.com
61
Aclarando conceptos
DESCUBRIMIENTO CIENTÍFICO
INVESTIGACIÓN, INVENCIÓN Y DESARROLLO
DEL PROTOTIPO
Acad. Dr. Héctor Giuliani
“La investigación básica y
la investigación aplicada
no se contraponen.
La investigación es una
sola y se manifiesta
a través de sus
aplicaciones.”
Luis Pasteur
El conocimiento que tiene la humanidad sobre si misma y de las propiedades de todos
los componentes que integran su entorno, en
términos generales la Naturaleza, se basa en
una búsqueda constante a través del método
científico. Este conocimiento científico y el
método para lograrlo constituyen las bases
fundamentales de la Ciencia en un campo
determinado. Por otro lado el trabajo que requiere adquirir dicho conocimiento mediante
la metodología apropiada se denomina INVESTIGACION CIENTIFICA.
El método científico, rasgo distintivo de la Ciencia, comprende una
serie de acciones que transcurren a nivel de las siguientes etapas:
primeramente, a partir de observaciones circunstanciales sobre un
objeto material o ideal, se elabora una pegunta que a su vez determina ulteriores observaciones minuciosas sobre hechos referidos a la
cuestión y su objeto; en la segunda se establece una hipótesis que
explique los hechos de manera razonable; en la tercera se deducen de
la hipótesis una serie de consecuencias lógicas que pueden y deben
ser verificadas. Luego de tal verificación la hipótesis se toma como
cierta y es susceptible de ser ampliada y modificada. El establecimiento de una hipótesis científica debidamente substanciada se denomina
DESCUBRIMIENTO CIENTIFICO.
Para ser considerado como tal, el descubrimiento científico debe reunir dos características: originalidad y solidez. Por originalidad se
entiende su novedad respecto del marco general del conocimiento
científico. Por solidez se comprende el grado de substanciación y
verificación a que ha sido sometida la hipótesis, para que ella sea
considerada con el carácter de descubrimiento científico.
Es importante destacar que el conocimiento científico no es una verdad absoluta. Toda hipótesis, aun debidamente substanciada y tomada como conocimiento científico, continuará siendo verdadera hasta
que otra hipótesis la reemplace o la modifique, demostrando su falsedad o limitación. En definitiva, la Ciencia como parte de la cultura, es
una búsqueda permanente y perfectible.
La ciencia, su contenido cognoscitivo y sus métodos, en cuanto a su
difusión y utilización, constituyen un derecho inalienable de la humanidad toda y así ha sido declarado en la Carta constitutiva de la Organización de las Naciones Unidas para la Educación, la Ciencia y la
Cultura (UNESCO).
Por ello, la difusión del conocimiento y métodos científicos es inmediata y asequible a todas las sociedades y países. Estas peculiaridades
de la Ciencia no solamente revisten un carácter ético-filosófico. La
constitución de un fondo común de conocimientos y métodos nuevos
posee además un fin eminentemente práctico dado que su libre y rápida difusión acelera y abarata el proceso de generación por parte de
la comunidad científica internacional de otros conocimientos y metodologías aún más novedosos.
La Ciencia tiene además de la originalidad y la solidez otra característica indesligable: la utilidad. Ésta última, que apunta a su significado e
62
impacto económico-social, reviste dos aspectos. Uno de ellos está referido a la formación
de graduados universitarios por profesores
que son científicos. El científico que genera
conocimientos, está en la mejor situación para
transmitirlos a los estudiantes. Estos serán los
futuros profesionales que impulsarán al sistema productivo o que pasarán a retroalimentar
el circuito docente y científico universitario.
El otro aspecto de la utilidad de la Ciencia es
servir de base para la generación de ideas con profundo contenido
práctico que eventualmente se concretarán en una invención.
Se entiende como invención una idea que tenga el carácter de nueva
en la esfera técnica, que permita la solución de un problema específico en dicha esfera técnica y que sea aplicable por parte del sector
productivo, junto con los procedimientos para su concreción.
La invención es la base para la generación del prototipo, a través de
un desarrollo tecnológico. Tal prototipo constituye el conjunto de elementos físicos o perceptibles que constituyen la invención. La etapa
final en la utilización social de la invención comprende la evaluación
de las necesidades del prototipo, su adaptación y su mejoramiento,
así como su producción en la escala requerida para su utilización por
parte de la comunidad. El elemento comunitario requerido para tales
funciones es la Tecnología. La incorporación de un invento a la comunidad y el impacto del mismo a nivel de sus distintos elementos se
denomina INNOVACIÒN TECNOLÓGICA.
La tecnología, aun cuando pueda valerse del método científico para
lograr sus objetivos, tiene un sentido netamente utilitario: el obtener
en cantidad y calidad un producto, bien o servicio, de interés a la comunidad junto con el procedimiento requerido para su manufactura en
escala y la descripción de su eventual uso. Dado que no existe un uso
sin un producto que lo justifique y que éste último tampoco existe sin
un procedimiento para su obtención, producto, procedimiento y uso
poseen entre sí una relación indisoluble.
Por lo expuesto anteriormente y desde el punto de vista de los derechos intelectuales, es claro que el descubrimiento científico lleva
ligado el nombre de sus científicos autores. A ellos corresponde el reconocimiento académico de la comunidad científica en particular y de
la humanidad en general. Esta última es la auténtica dueña y receptora
del descubrimiento.
En cuanto a la invención, el producto, junto con su procedimiento de
obtención y el uso, dan derecho a sus legítimos dueños a impedir la
producción y comercialización del producto.
El grado de evolución que en la actualidad ha llegado el conocimiento
y los métodos científicos, torna imposible la existencia de invenciones
que no se basen en datos preexistentes y que han sido generados por
la comunidad científica internacional y que por ello, éstos últimos, son
propiedad de la humanidad.n
H.G.
Proyecto de Inyección
Termoplásticos
Maquina Inyectora – Parte I
Aníbal H. San Juan
[email protected]
Con esta simple evaluación se
puede saber la cantidad de bocas,
según el tipo de máquina.
El moldeo por inyección es una de las herramientas de fabricación
más importantes en la industria del plástico desde que se patentó la
máquina de tornillo reciprocante en 1956.
En la evaluación preliminar de las inyectoras a usar hay dos variables
fundamentales que son la fuerza de cierre en toneladas y la capacidad
de inyección en gramos.
Para calcular la Fuerza de Cierre (Fc) necesaria para una cavidad, se
debe conocer la Superficie Proyectada de la pieza a inyectar en centímetros cuadrados y multiplicarla por una constante que depende de
cada material a inyectar y se llama Presión Especifica del Material.
Fc = Sup. Proy. x Pe
Fc= Fuerza de Cierre
Sup. Proy. = Superficie Proyectada
Pe = Presión Especifica
• La superficie proyectada es lo que se observa en el plano del
cierre del molde, incluida la colada, y esto se debe a que el material
inyectado ejerce una presión que se opone a la fuerza ejercida por
el cierre de la máquina.
• La presión específica del material a inyectar es una constante
que depende del material. Algunos ejemplos de la misma se indican a continuación:
Polietileno Alta y Baja Densidad – PeAD / PeBD = 200 Kg / Cm2
Polipropileno – PP = 200 Kg / Cm2
Poliestireno - Ps = 300 Kg / Cm2
PVC Rígido = 300 Kg / Cm2
Policarbonato – PC = 400 Kg / Cm2
3. El paso siguiente es evaluar los
gramos de material a inyectar y
para ello se debe calcular el peso
de cada boca/cavidad, siguiendo
dos alternativas:
• Si se tiene una pieza similar, se pesa la misma para obtener el
valor.
• Si es una pieza nueva, se puede llegar al peso calculando el
volumen de la misma y multiplicando este valor por el peso
específico del material a inyectar que en el caso del PP es 0,9
Gs/Cm2.
En base a esto el peso de una pieza sería:
Peso = Masa x Pe = 150 Cm3 x 0.9 Gr/Cm2 = 135 Gr.
4. Corresponde en este momento efectuar un análisis similar al anterior pero con la capacidad de inyección de cada máquina:
MAQUINA / CAPACIDAD DE INYECCION / BOCAS
80 Tn / 150 Gr / 1 Boca
120 Tn / 200 Gr / 1 Boca
200 Tn / 300 Gr / 2 Bocas
300 Tn / 500 Gr / 3 Bocas
De esto se deduce que el máximo de bocas que se podrían hacer son
3 pero solo funcionaria en la inyectora de 300 Toneladas de Cierre. Si
solo se hubiera tomado como referencia la Fuerza de Cierre, se podrían
haber hecho 6 bocas pero no se podrían llenar, ya que únicamente se
pueden inyectar 500 gramos.
n Cálculo para una superficie proyectada de una pieza de
Como se debe trabajar con un margen de seguridad (óptimo 80 %) la
Fc necesaria para 3 bocas sería:
1. Fuerza de Cierre :
Fc = cantidad de bocas x Fc para una boca = 3 x 50 tn = 150 Tn =
50 % exigencia
Capacidad de Inyección = 3 x 135 Gr = 405 Gr = 81% exigencia
250 cm en PP
2
Fc para una boca /cavidad
Fc = 250 Cm2 x 200 Kg/cm2 = 50000 Kg = 50 Tn.
2. El análisis para saber la cantidad de bocas a desarrollar, dependiendo del tipo de máquinas (80, 120, 200 y 300 Tn) está basado
en la siguiente tabla:
MAQUINA / CANTIDAD DE BOCAS
80 Toneladas = 1 Boca
120 Toneladas = 2 Bocas
200 Toneladas = 4 Bocas
300 Toneladas = 6 Bocas
En este paso ya se está en condiciones de comenzar con el proyecto
del molde de inyección.
Nota: Esta presentación es una base de conocimiento y ayuda sobre la
materia pues para profundizar en un proyecto se debe tener en cuenta
otras condiciones como por ejemplo, las dimensiones entre columnas
de la inyectora para asegurar que el molde entre en la misma, los
canales y tipo de colada, etc. n
63
Información de Interés
ANVISA RDC n° 49, cambios
posteriores al registro
de productos biológicos
Algunas definiciones importantes según actualizaciones incorporadas
hasta Mayo 2013 y Anexos sobre estudios de estabilidad
I - Adyuvante: agente que auxilia o aumenta la acción del principio
activo (sinergismo) o que afecta a su absorción, su mecanismo de
acción, su metabolismo o su excreción (farmacocinética), buscando
mejorar el efecto del medicamento.
II - Alteración de nivel 1 (alteración menor): alteraciones posteriores al registro, de baja complejidad, que dispensan de la autorización
previa de Anvisa para su implementación.
III - Alteración de nivel 2 (alteración moderada): alteraciones posteriores, de complejidad media, que necesitan de autorización previa
de Anvisa para su implementación.
IV - Alteración de nivel 3 (alteración mayor): alteraciones posteriores al registro, de alta complejidad, que necesitan de autorización
previa de Anvisa para su implementación.
V - Estudio de acompañamiento: estudio de estabilidad realizado
para asegurar que el producto farmacéutico mantiene sus características físicas, químicas, biológicas, y microbiológicas conforme a los
resultados obtenidos en los estudios de estabilidad de larga duración.
VI - Estudio de estabilidad acelerado: estudio proyectado para acelerar las degradaciones químicas, biológicas o los cambios físicos de
un producto farmacéutico, en condiciones forzadas de almacenamiento.
VII - Estudio de estabilidad de larga duración: estudio proyectado
para la evaluación de las características físicas, químicas, biológicas
y microbiológicas de un producto farmacéutico durante y, opcionalmente, después del plazo de validez esperado, cuyos resultados son
usados para establecer o confirmar el plazo de validez estipulado y
recomendar las condiciones de almacenamiento.
VIII - Estudio de estabilidad de larga duración parcial: estudio de
estabilidad de larga duración con resultados parciales, cuyos datos y
resultados finales deberán ser sometidos a Anvisa en el histórico de
los cambios en el producto.
IX -Histórico de cambios del producto: formulario en el cual deberán ser registrados los cambios, alteraciones o inclusiones posteriores al registro de productos biológicos nuevos y productos biológicos,
además de los resultados de los estudios de estabilidad concluidos.
X - Cambios múltiples concomitantes: cambios o alteraciones posteriores al registro de productos biológicos derivados de una solicitud
principal, de acuerdo con los propósitos de esta Resolución.
XI - Cambios múltiples paralelos: cambios o alteraciones posteriores al registro de productos biológicos, directamente relacionados y
que ocurren simultáneament.e
XII - Producto biológico: medicamento biológico no nuevo o conocido, que contenga una molécula con actividad biológica conocida,
ya registrado en el Brasil y que haya pasado por todas las etapas de
fabricación (formulación, envase, liofilización, rotulado, embalaje, almacenamiento, control de calidad y liberación del lote de producto
biológico para uso).
XIII - Producto biológico a granel: producto biológico que haya completado todas las etapas de producción, formulado en su forma farmacéutica final, a granel, contenido en un recipiente único, estéril, si es
aplicable, y liberado por el control de calidad del fabricante.
64
XIV - Producto biológico en su embalaje primario: producto biológico que haya completado todas las etapas de producción, formulado en
su forma farmacéutica final, contenido en su recipiente final (embalaje
primario), estéril, si es aplicable, sin incluir el proceso de rotulado y
embalaje y liberado por el control de calidad del fabricante.
XV - Producto biológico intermediario: producto farmacéutico, de
origen biológico, parcialmente procesado, pasible de especificación
y de cuantificación, que será sometido a las etapas subsiguientes de
fabricación, antes de transformarse en un producto a granel.
XVI - Producto biológico nuevo: medicamento biológico que contenga
una molécula con actividad biológica conocida, aún no registrado en el
Brasil y que haya pasado por todas las etapas de fabricación (formulación, envase, liofilización, rotulado, embalaje, almacenamiento, control de
calidad y liberación del lote de medicamento biológico nuevo para uso).
XVII - Producto biológico terminado: producto farmacéutico, de origen biológico, que haya completado todas las fases de producción,
incluyendo el embalaje final, cuando el mismo confiera algún tipo de
protección a producto.n
ANEXO I: Condiciones para la realización de los estudios de estabilidad
del principio activo, del producto intermediario y del producto a granel
TEMPERATURA Y HUMEDAD
ESTUDIO DE LARGA DURACIÓN
TEMPERATURA Y HUMEDAD
ESTUDIO ACELERADO
25 °C ± 2 °C/60% HR ± 5% HR o
30 °C ± 2 °C/65% HR ± 5% HR o
30 °C ± 2 °C/75% HR ± 5% HR
40°C ± 2°C/75% HR ± 5% HR
2°C - 8°C
25 °C ± 2 °C/60% HR ± 5% HR o
30 °C ± 2 °C/65% HR ± 5% HR o
30 °C ± 2 °C/75% HR ± 5% HR
-20 °C
Los parámetros de temperatura y humedad
serán definidos por el fabricante
ANEXO II: Condiciones para la realización de los estudios de estabilidad
del producto terminado
TEMPERATURA Y HUMEDAD
ESTUDIO DE LARGA DURACIÓN
TEMPERATURA Y HUMEDAD
ESTUDIO ACELERADO
25 °C ± 2 °C/60% HR ± 5% HR (solo
para productos de uso restringido en
hospitales) o
30 °C ± 2 °C/75% HR ± 5% HR
40°C ± 2°C/75% HR ± 5% HR
5°C ± 3°C
25 °C ± 2 °C/60% HR ± 5% HR o
30 °C ± 2 °C/65% HR ± 5% HR o
30 °C ± 2 °C/75% HR ± 5% HR
-20 °C
Los parámetros de temperatura y humedad
serán definidos por el fabricante
ANEXO III: Condiciones para la realización de los estudios de estabilidad
de productos de base acuosa
TEMPERATURA Y HUMEDAD
ESTUDIO DE LARGA DURACIÓN
TEMPERATURA Y HUMEDAD
ESTUDIO ACELERADO
25 °C ± 2 °C/40% HR ± 5% HR (solo
para productos de uso restringido en
hospitales) o
30 °C ± 2 °C/35% HR ± 5% HR
40°C ± 2°C y no más de 25% HR
Gastos en Salud y
Medicamentos
Impacto de los Biosimilares
Magdalena Nannei
La OECD (Organisation for Economic Co-operation and Development),
publicó el 27 de junio del 2013 un reporte sobre la evolución de los
gastos en salud. Se observa en los mismos que luego de caer marcadamente en el año 2010, los gastos de salud en los países participantes en la OECD se mantuvieron chatos reflejando en los mismos la
crisis económica. Ver Figura 1.
Los países miembros son Alemania, Australia, Austria, Bélgica, Canadá, Corea, Chile, Dinamarca, Eslovenia, España, Estados Unidos,
Estonia, Finlandia, Francia, Grecia, Holanda, Hungría, Islandia, Irlanda,
Israel, Italia, Japón, Luxemburgo, México, Nueva Zelandia, Noruega,
Polonia, Portugal, Reino Unido, República Checa, república de Eslovaquia, Suecia, Suiza y Turquía. Rusia tiene una posición especial y Brasil, China, India, Indonesia y Sudáfrica son aliados claves de la OECD.
Se debe resaltar que los únicos países latinoamericanos participantes
son Chile y México como miembros y Brasil como aliado clave.
El informe de la OECD continúa aclarando que la reducción en los gastos de salud pública principalmente afectó al sector farmacéutico, ya
que muchos países han tenido una seria elevación de los costos de
medicamentos, y han reducido precios y cobertura y promovido el uso
de genéricos. Ver Figura 2.
Por otro lado se prevé que la inestabilidad de la Eurozona continuará
afectando los gastos de salud pública, los cambios políticos en Italia
y Alemania cambiarán el panorama de cuidados de la salud y todavía
habrá dificultades para los manufactureros en India. Las buenas noticias son que China, Brasil y Rusia aún tienen crecimiento sostenido.
Se espera que Latinoamérica avance en la armonización regulatoria y
los biosimilares tendrán un fuerte impacto.
A este respecto una noticia del 28 de junio ha impactado el mercado.
Dos compañías ganaron el soporte de la Comisión Europea para vender versiones de un producto líder para la terapia frente a la artritis
con ventas de 6 billones de dólares. Efectivamente, la EMA (European
Medicines Agency) recomendó la autorización de los dos primeros anticuerpos monoclonales biosimilares. En su comunicado afirma: “Es
la primera vez que el concepto de biosimilares ha sido aplicado con
65
suceso a una molécula de tal complejidad, resultando en la aprobación
de la versión biosimilar del infliximab.”
¿Qué puede esperarse de estos genéricos “biosimilares”? La revista
Forbes, hace pocos meses atrás indicó que prácticamente el 80% de
las prescripciones que se efectuaron en el año 2011 fueron de productos genéricos (mercado americano) y que cuando un genérico llega al
mercado se puede esperar una caída de precio en el medicamento
original de alrededor del 30 %. Además la FDA tiene un sistema “abreviado” de aprobación para biosimilares.
Es interesante observar la posición crítica de las compañías líderes e
innovadoras al respecto. La ABPI (Association of the British Pharmaceutical Industry) que representa las compañías innovadoras indica
que los productos de origen biológico probablemente serán los más
importantes productos del mercado en términos económicos. Continúa indicando que los biosimilares nunca son copias exactas del producto de referencia y que se trata en efecto de un nuevo producto.
Para esta organización, garantizar el registro debe estar basado en
una estricta evaluación regulatoria, pero la evaluación de la sustitución
y la intercambiabilidad no son parte de la evaluación científica actual.
Para la ABPI, “todos los productos biotecnológicos tienen diferentes
materiales de partida y procesos de manufactura lo que significa que
tienen diferentes características que podrían no ser detectables en
ensayos clínicos convencionales tales como reacciones adversas raras de los medicamentos, efectos especiales mediados por el sistema
inmunológico.” Finalmente da sus recomendaciones que se resumen
a continuación:
Recomendación 1: Todas las prescripciones de productos biológicos/
biosimilares deberían ser con la marca registrada y no con el nombre
genérico (INN)
Recomendación 2: Un producto biológico o biosimilar debe ser sustituido solamente con el conocimiento y consentimiento del médico.
Recomendación 3: Los pacientes deberían ser completamente informados sobre sus medicamentos y deberían ser consultados si se
efectúan cambios en el tratamiento.
Recomendación 4: El resumen de las características del producto
medicinal debería indicar claramente la fuente de información contenida en él, tal como los estudios clínicos relevantes o que ha sido
derivado de evidencia sobre el producto original.
Recomendación 5: Los productos biosimilares deberían estar sujetos
a un proceso de evaluación tecnológica de salud en el Reino Unido (se
debe recordar que ABPI es una organización inglesa)
66
Administración
Prevención/ Salud Pública
Medicamentos
Cuidados extensivos
Cuidados externos
Figura 2: Crecimiento promedio por función principal gastos en
la salud pública países OECD, 2008-2011
Cuidados internos
Figura 1: Velocidad de crecimiento de los gastos promedios de
salud en término reales 2000 a 2011, públicos y total
Fuente: OECD 2013
Figura 3: Crecimiento real del mercado biológico/moléculas
pequeñas entre 2004 y 2009 y crecimiento esperado para el 2015.
Recomendación 6: Las licitaciones que involucren productos biológicos no deberían buscar suplir un único producto.
Recomendación 7: La extrapolación de las indicaciones de productos
biosimilares debería ser evaluada caso por caso.
El IMS (compañía líder en proveer estadísticas del mercado de salud)
ha indicado que el volumen de biosimilares crece mientras que el de
los productos de referencia ha mantenido su volumen pero ha disminuido en valor de mercado. Otro dato interesante es el de la Figura 3,
en el cual se observa las ventas reales (a 2009) y las proyecciones
de crecimiento para los productos con “moléculas pequeñas” y los
productos biológicos. En el mismo se observa que el mercado de productos biológicos podría crecer hasta dos veces más rápido que el
mercado de “moléculas pequeñas”. Por ejemplo, entre 2009 y 2015
se espera que el mercado de productos biológicos crezca un 78%
mientras que el de “moléculas pequeñas” solo lo haría en un 25%.
Es fácil concluir que se puede esperar otro tanto, incluso más a medida que venzan las patentes, del mercado de productos biosimilares.
Por lo tanto, se puede esperar una decidida batalla entre los servicios
de salud, las compañías innovadoras y los productos biosimilares,
para sobrevivir frente a la desfavorable coyuntura actual en el mercado global (no debe olvidarse que en la Figura 3, los datos del 2015
podrían ser demasiado optimistas).n
TAPA 138.indd 2
28/06/2013 12:07
Junio de 2013
|
Nº 138
Nº 138
Junio de 2013
ISSN: 0558/1265
Uruguay 469, piso 2º B
C1015ABI Buenos Aires,
Argentina
Tel: (54-11) 4373-0462 / 8900
(54-11) 4372-7389
Fax: (54-11) 4374-3630
www.safybi.org
Revista de la Asociación Argentina de Farmacia y Bioquímica Industrial
Revista
Revista SAFYBI
|
Volumen 53
Motivación y eficiencia:
motores del cambio de
paradigma para la industria
farmacéutica
Visite nuestra
revista
online en
www.safybi.org
TAPA 138.indd 1
Conocimiento científico:
SU impacto en las
nuevas regulaciones
28/06/2013 12:07

Documentos relacionados