¿Doctor Chatbot? Un estudio advierte que la IA falla la mitad de las veces en consejos médicos
Según una investigación reciente, modelos como ChatGPT y Gemini proporcionan información errónea en el 50% de las consultas sobre salud. El peligro de reemplazar al médico por el algoritmo.
A pesar del avance imparable de la Inteligencia Artificial, hay un terreno donde todavía está muy lejos de ser confiable: la salud. Un nuevo estudio reveló una cifra alarmante: ante preguntas sobre síntomas o diagnósticos, los chatbots más populares brindan respuestas incorrectas o peligrosas en la mitad de los casos.
El riesgo de las "alucinaciones"
El informe destaca que, aunque estas herramientas son excelentes para redactar correos o resumir textos, tienden a "alucinar" (inventar datos con mucha seguridad) cuando se trata de medicina. Entre los fallos más comunes se encontraron:
- Dosis incorrectas de medicamentos comunes.
- Minimización de síntomas que requerirían atención de urgencia.
- Mezcla de patologías con tratamientos que no corresponden.
Una herramienta, no un profesional
Los expertos detrás del estudio son tajantes: la IA debe usarse como un apoyo para buscar información general, pero nunca como un sustituto del criterio médico. La falta de examen físico y el desconocimiento del historial clínico completo del usuario hacen que el "consejo" del bot sea, en muchos casos, una moneda al aire.
admin
Comentarios
Deja tu comentario