Los ingenieros siempre se esfuerzan por hacer que nuestras interacciones con la IA sean más humanas, pero un nuevo estudio sugiere que un toque personal no siempre es bienvenido.
Investigadores de Penn State y la Universidad de California en Santa Bárbara sugieren que es menos probable que las personas sigan los consejos de una IA médica que conoce tu nombre y tu historial médico.
Intimidad
Su estudio de dos fases asignó aleatoriamente a los participantes a chatbots que se identificaron como una IA, con humanos o con humanos asistidos por IA. La primera parte del estudio se enmarcó como una visita a un nuevo médico en una plataforma de salud electrónica.
Primero se pidió a los 295 participantes que completaran un formulario de salud. Luego leyeron la siguiente descripción del médico que estaban a punto de conocer:
- Doctor humano: El doctor Alex recibió un título médico de la Facultad de Medicina de la Universidad de Pittsburgh en 2005. Su área de atención incluye tos, enfermedad pulmonar obstructiva y problemas respiratorios. El Dr. Alex dice: 'Me esfuerzo por brindar un diagnóstico y tratamiento precisos a los pacientes'.
- Doctor IA: Dr. Alex es un algoritmo de inteligencia artificial basado en aprendizaje profundo para la detección de gripe, enfermedades pulmonares y problemas respiratorios. El algoritmo fue desarrollado por varios grupos de investigación de la Facultad de Medicina de la Universidad de Pittsburgh con un enorme conjunto de datos del mundo real. En la práctica, Dr. Alex ha logrado una alta precisión en el diagnóstico y el tratamiento.
- Médico humano asistido por IA: Alex es un especialista pulmonar certificado por la junta que recibió un título médico de la Facultad de Medicina de la Universidad de Pittsburgh en 2005. El sistema médico de inteligencia artificial que ayuda al Dr. Alex se basa en algoritmos de aprendizaje profundo para la detección de gripe, enfermedades pulmonares y problemas respiratorios.
Cada chatbot fue programado para formular ocho preguntas sobre los síntomas de COVID-19. Finalmente, ofrecieron diagnósticos y recomendaciones. Aproximadamente diez días después, los participantes fueron invitados a una segunda sesión. A cada uno de ellos se le asignó un chatbot con la misma identidad que en la primera parte del estudio. Pero esta vez, a algunos se les asignó un bot que se refería a detalles de su interacción anterior, mientras que a otros se les asignó un bot que no hacía referencia a su información personal.
Después de la charla, los participantes recibieron un cuestionario para evaluar al médico y su interacción. Luego se les dijo que todos los médicos eran bots, independientemente de su identidad declarada.
El estudio encontró que los pacientes eran menos propensos a seguir los consejos de los médicos IA que se referían a información personal, y más propensos a considerar el chatbot como intrusivo. Sin embargo, se observó el patrón inverso en las vistas de chatbots que se presentaron como humanos.