ChatGPT puede ayudar a los médicos, pero también puede ser perjudicial para los pacientes. ¿Recuerda cuando en la película de Will Smith (Yo, robot), el modelo de inteligencia artificial evalúa las probabilidades de sobrevivir y toma “la mejor decisión”? Pues esa misma duda que se plantea en la película, en este punto del desarrollo de esta nueva tecnología, invita a científicos y profesionales de la salud a enfatizar en la necesidad de regulación, ya que el futuro de la industria de la robótica y de las máquinas que se podrán crear con ayuda de la inteligencia artificial, son determinantes en ramas tan importantes como la medicina.
Dicho esto, varios médicos consultados esperan que los modelos de lenguaje puedan descubrir información en registros de salud digitales o proporcionar a los pacientes resúmenes de notas técnicas, pero también existe el temor de que puedan engañar a los médicos o proporcionar respuestas inexactas que conduzcan a un diagnóstico o plan de tratamiento incorrecto.
Los profesionales de la salud desean que la tecnología pueda ayudarlos a atender a los pacientes, pero, por otro lado, varios investigadores advierten que no se debe confiar en la inteligencia artificial para tomar decisiones éticas difíciles.
Aunque ChatGPT puede ser una herramienta útil para tareas como resumir texto, los usuarios deben saber que el bot puede no ser 100 % preciso y generar resultados sesgados. La tecnología puede ser particularmente problemática en el tratamiento de enfermedades cardiovasculares y lesiones en cuidados intensivos, que tienen antecedentes de sesgo racial y de género.
Publicidad
Según Heather Mattie, profesora de salud pública de la Universidad de Harvard que estudia el impacto de la IA en la atención médica, en un artículo que su equipo escribió sobre la regulación de la inteligencia artificial clínica, quedó impresionada la primera vez que usó ChatGPT. Pidió un resumen de cómo se ha utilizado el modelado de conexiones sociales para estudiar el VIH, un tema que investiga. Sin embargo, eventualmente, el modelo tocó temas fuera de su conocimiento, y ya no pudo discernir si la información era la correcta.
Mattie dijo que le preocupa especialmente cómo ChatGPT trata las herramientas de diagnóstico de enfermedades cardiovasculares y lesiones en cuidados intensivos. Pero enfatizó en que sigue siendo cautelosa acerca de ChatGPT en un entorno clínico, porque a veces fabrica hechos y no deja claro de cuándo data la información en la que se basa.
Publicidad
Dicho esto, empresas como Microsoft y Epic Systems han anunciado planes para usar GPT-4 de OpenAI, que desarrolla a ChatGPT, para buscar tendencias en registros de salud electrónicos.
Sin embargo, los investigadores advierten que se debe tener precaución al usar tecnología de inteligencia artificial para tomar decisiones éticas que siempre generan dificultad en el ser humano. En general, los profesionales médicos deben usar la tecnología de inteligencia artificial con pinzas y siempre tener en cuenta la necesidad de tomar este tipo de decisiones desde una junta médica ya que no pueden ser abordadas por una máquina.
Será el tiempo el que demuestre cuál será el rol de la inteligencia artificial en la medicina, pues, así como podrá ser útil para detectar algunos tipos de cáncer de manera temprana y garantizar una mayor probabilidad de resultados satisfactorios para el paciente, también podría ser perjudicial en algunos campos en donde el raciocinio humano debería ser preponderante al momento de tomar decisiones.
Lo que si es un hecho concreto es que los modelos de inteligencia artificial, de ser bien implementados y tengan una regulación clara que beneficie a la humanidad, será una herramienta clave con la que no solo los profesionales de la salud, sino también en muchos otros campos del conocimiento, puedan complementar su trabajo y obtener resultados de gran impacto y en menos tiempo en pro del avance en los métodos, garantizando un mayor bienestar en las personas.
Publicidad
Le puede interesar:
Publicidad