Información de la revista
Editorial
Acceso a texto completo
Disponible online el 2 de junio de 2025
Aspectos éticos de la inteligencia artificial (IA) en farmacia hospitalaria
Ethical aspects of AI in hospital pharmacy
Visitas
167
José Manuel Martínez Sesmero
Subdirección Médica, Hospital Clínico Universitario Lozano Blesa, Zaragoza, España
Este artículo ha recibido
Recibido 02 Mayo 2025. Aceptado 05 Mayo 2025
Información del artículo
Texto completo
Bibliografía
Descargar PDF
Estadísticas
Texto completo

En las últimas 3 décadas, hemos pasado de un mundo casi exclusivamente analógico a un mundo tremendamente digitalizado. El antropoceno, nombre que se utiliza para definir una nueva era geológica reflejo de nuestro impacto como especie sobre el planeta, los cambios demográficos y sociales profundos en un mundo globalizado y la necesidad de una nueva perspectiva, definida por algunos como el paradigma digital, nos pueden ayudar a entender la repercusión de la Inteligencia Artificial (IA) en la farmacia hospitalaria (FH).

En este devenir histórico, la FH, al igual que el resto de la sociedad, está experimentando un proceso de digitalización, entendido como un proceso sociotécnico por el cual se han incorporado las tecnologías digitales a los procesos y tareas previamente existentes, con el objetivo de mejorar la eficiencia y añadir valor a los profesionales y usuarios, modificando sustancialmente los procesos productivos y, sobre todo, tratando de encontrar espacios y tiempo de calidad para participar intensamente en los equipos sanitarios y atender más directamente a nuestros pacientes. Esta digitalización debe dar paso a un nivel superior al que debemos aspirar, el de la transformación digital (TD)1.

La TD es un proceso disruptivo que implica una estrategia y un esfuerzo organizado para integrar de forma significativa las tecnologías, introduciendo nuevos procesos. Para llevar a cabo la TD, se requiere la colaboración multidisciplinaria e interdisciplinaria, en la que aparecen nuevos agentes, cambios en las reglas del juego, diferentes modelos de prestación y nuevos servicios, superando las barreras de los silos comunicativos y de información, tanto dentro de la propia FH como entre esta y el resto de los agentes con los que debe interactuar.

En efecto, la TD pivota sobre tecnologías con un elevado grado de posibilidades y una alta complejidad, pero, para que suceda de forma adecuada, necesita al ser humano, ya que su objetivo último es mejorar la vida de las personas2.

Tal y como indica el cardiólogo norteamericano Eric Topol en su libro Deep Medicine: How Artificial Intelligence Can Make Healthcare Human Again, la IA nos presenta una oportunidad para impulsar el cuidado de los pacientes, reduciendo la carga de trabajo de los trabajadores de servicios hospitalarios, entre ellos, la FH. Por lo tanto, es esta codependencia inexcusable e inherente la que hace necesario el acompañamiento de los aspectos éticos al fenómeno de la TD y, por ende, a la aplicación práctica de la IA en la FH3.

La ética es el conjunto de normas morales que rigen la conducta de las personas en cualquier ámbito de la vida. En general, la ética busca determinar la actuación ideal de los individuos. Si su objetivo es el comportamiento de los humanos, ¿tiene sentido que las máquinas sigan unos principios éticos? Existe un amplio consenso en el hecho de que, para minimizar los riesgos de esta tecnología, es necesario que su desarrollo ponga a los seres humanos en el centro y sea confiable, para lo cual debe respetar los derechos fundamentales, ser técnicamente consistente y tener un propósito ético2.

El necesario nexo entre ética y tecnología no es reciente; recordemos que la bioética surgió a mediados del siglo XX como respuesta al desarrollo tecno-científico sobre la vida y, ahora más que nunca, ha de recobrar su importancia en un ecosistema de salud en el que la IA, mal gestionada o implementada, pudiera poner en riesgo sus principios tradicionales (autonomía, beneficencia, no maleficencia y justicia). La utilización de la IA no debe exonerarnos de realizar deliberaciones sustentadas en la razón, a fin de ofrecer criterios éticos a la hora de tomar decisiones que afecten a la vida de las personas2.

Los desafíos éticos directos de la IA en el sector salud, de los que no ha de ser ajena la FH, giran en torno a: la transparencia, la privacidad y la seguridad de los datos; la coherencia; la veracidad y representatividad en la información generada por la IA; la necesidad de explicabilidad y su correlato corresponsable; la garantía valores como la equidad, la accesibilidad y la no discriminación, evitando potenciales sesgos4. Estos aspectos son fundamentales para asegurar que las decisiones tomadas con el apoyo de la IA sean correctas, justas y transparentes.

La explicabilidad en IA se refiere a la capacidad de proporcionar interpretaciones claras y comprensibles de cómo y por qué se han generado determinadas decisiones o se han producido ciertos resultados. En otras palabras, es el proceso mediante el cual se hace transparente el funcionamiento interno de los algoritmos de IA, permitiendo a los usuarios, especialmente aquellos sin formación técnica avanzada, entender las bases de las predicciones y recomendaciones generadas por estos sistemas. La explicabilidad en IA es una prioridad clave para garantizar aplicaciones justas y éticas en las ciencias de la salud. Es esencial que los sistemas de apoyo a las decisiones clínicas en FH impulsados por IA sean transparentes, consistentes y accesibles, para que los farmacéuticos puedan entender el proceso y el fundamento de sus sugerencias, así como adquirir confianza en su utilización. La opacidad en estos sistemas puede ocasionar problemas graves y hacernos incurrir en decisiones erróneas, poniendo en riesgo la seguridad del paciente. Asimismo, es importante distribuir el grado de responsabilidad de las decisiones basadas en IA, y definir cómo se puede responsabilizar a los desarrolladores o a los propietarios de estas tecnologías5.

Respecto a la equidad y la accesibilidad, varios estudios han destacado la posible naturaleza sesgada de los sistemas de IA, especialmente en relación con grupos sociodemográficos específicos. Esto se convierte en un gran problema ético, ya que estos sesgos pueden llevar a un trato desigual, asistencia sanitaria no ajustada a las necesidades de la persona y disparidades en los resultados de salud. Una de las principales causas de los sesgos es el conjunto de datos utilizado para entrenar los modelos de IA, que pueden reflejar desigualdades históricas en la atención sanitaria. Si los algoritmos afectan de manera desproporcionada a minorías o perpetúan estereotipos, pueden contribuir a la discriminación sistemática en la atención sanitaria, perpetuando injusticias y errores en los tratamientos. La utilización inadecuada o no informada de la IA en FH podría causar problemas significativos en la distribución equitativa de recursos de atención farmacéutica. Es por ello que, si no se toman las medidas apropiadas, es probable que la IA exacerbe las potenciales desigualdades preexistentes en nuestra actividad profesional5.

En otras ocasiones, los aspectos y preocupaciones éticas que pueda generar la IA en FH se deberán especialmente a la reducción de la supervisión de los profesionales en determinados procesos de aprendizaje automático, como el aprendizaje profundo (deep learning). La IA puede llegar a ser autónoma en la toma de decisiones, lo que puede ser un problema cuando las decisiones que toma afectan a la salud y la vida de las personas. En este sentido, es importante establecer límites a la IA en cualquier campo, incluida la FH, y asegurar que siempre exista una supervisión humana. Claro ejemplo de la relevancia de ello es que, en agosto de 2024, entró en vigor la Ley de IA de la Unión Europea. En concreto, dicha Ley está diseñada para garantizar que la IA desarrollada y utilizada en la UE sea fiable y que proteja los derechos fundamentales de las personas, incluidos los profesionales que la utilizan6.

Por otro lado, para la FH es esencial recibir formación para aprovechar las herramientas impulsadas por la IA de forma que mejoren, en lugar de disminuir, su capacidad para relacionarse con los pacientes, comprender sus necesidades y preocupaciones únicas, y proporcionar un cuidado compasivo y personalizado. Los pacientes tienen derecho a saber cuándo y cómo se utilizan los sistemas de IA en su atención, y a comprender las posibles implicaciones y limitaciones de esta tecnología. En este sentido, el desarrollo y la implementación de marcos regulatorios integrales servirán para garantizar la integración segura, ética y equitativa de las tecnologías impulsadas por la IA en el sector de la salud.

La FH es una profesión especialmente sensible porque su razón de ser es procurar la mejora de la salud de las personas y, por lo tanto, de la sociedad, siempre bajo un marco sostenible. Si bien es cierto que se debe evitar un mal uso clínico asistencial de la IA (y de cualquier otra tecnología), también es fundamentalmente crítico aportar todas las soluciones disponibles que puedan mejorar la gestión de unos recursos limitados.

La aplicación de la IA en FH debe regirse por los mismos valores que inspiran la evaluación de cualquier otra tecnología, bajo el gobierno de las responsabilidades públicas, y de la misma manera en que se analiza cualquier otra tecnología en el ámbito de la salud. El valor de una tecnología como la IA en FH depende de su utilidad, de su contribución a mejorar algún aspecto de relevancia para la profesión y de la consecución de sus objetivos, incorporando para ello todos los análisis de coste-utilidad que consideremos pertinentes. Llevar a cabo este análisis de forma rigurosa y transparente es, a mi entender, un compromiso ético irrenunciable para la FH, al igual que en cualquier otro ámbito de la actividad humana o de la asistencia sanitaria, muy especialmente en el sector público. Los farmacéuticos de hospital no debemos perder nunca de vista que la ética no es más que el intento racional de averiguar cómo vivir y cómo convivir mejor, entre otros, con la tecnologIA.

Financiación

El autor declara que no han recibido ayudas específicas de agencias del sector público, sector comercial o entidades sin ánimo de lucro.

Conflicto de intereses

El autor declara que no tiene ningún conflicto de intereses.

Bibliografía
[1]
B. Anderson, E. Sutherland.
OECD Artificial Intelligence Papers, No. 10.
Collective action for responsible AI in health [Internet],
[2]
I. Bartoletti.
AI in healthcare: ethical and privacy challenges.
Springer Science + Business Media, (2019), pp. 7-10 http://dx.doi.org/10.1007/978-3-030-21642-9_2
[3]
E.J. Topol.
Deep medicine: how artificial intelligence can make healthcare human again.
Basic Books; Division of HarperCollins, United States, (2019),
[4]
World Health Organization. Ethics and governance of artificial intelligence for health: guidance on large multi-modal models [Internet], 2024.
[5]
P. Ibern, H. Farmer, F. Miralles, A. de Manuel, J. Ribera, A. Baena, et al.
Inteligencia artificial en salud. Retos éticos y científicos. N° 63.
[6]
Unión Europea. Reglamento (UE) 2024/1689 del Parlamento Europeo y del Consejo, de 13 de junio de 2024, por el que se establecen normas armonizadas en materia de inteligencia artificial [Internet].
Copyright © 2025. The Author
Descargar PDF
Idiomas
Farmacia Hospitalaria
Opciones de artículo
Herramientas
es en

¿Es usted profesional sanitario apto para prescribir o dispensar medicamentos?

Are you a health professional able to prescribe or dispense drugs?

es en
Política de cookies Cookies policy
Utilizamos cookies propias y de terceros para mejorar nuestros servicios y mostrarle publicidad relacionada con sus preferencias mediante el análisis de sus hábitos de navegación. Si continua navegando, consideramos que acepta su uso. Puede cambiar la configuración u obtener más información aquí. To improve our services and products, we use "cookies" (own or third parties authorized) to show advertising related to client preferences through the analyses of navigation customer behavior. Continuing navigation will be considered as acceptance of this use. You can change the settings or obtain more information by clicking here.