Hace algunos años publiqué un cuento protagonizado por un hombre deprimido, recién salido de una relación amorosa (vamos, que le habían hecho trizas el corazón). La historia transcurría en un futuro cercano en el cual se pone de moda adquirir unas cabezas robóticas inteligentes que se pueden conectar a Internet. A los desengañados, a los deprimidos, a los infelices, a los solitarios. Todos ellos podían gozar del último y más revolucionario fármaco: los psicoterapeutas artificiales BIAB.
Debido a la fuerte demanda de ayuda psiquiátrica por parte de la sociedad y al hecho de que todo el mundo gozaba ya de un ordenador conectado a la Red, una empresa floreciente, Brain In A Box, implantó a gran escala una IA psicoterapeuta atenta, experimentada y fundamentalmente no directiva en todos los hogares del planeta. Una vez asegurado el carácter confidencial del diálogo psiquiátrico, la aceptación fue masiva. Hasta tal punto que había pacientes que revelaban más sobre sí mismos de lo que lo harían a su homólogo humano.
¿Tiene problemas? Compre una busto parlante BIAB a su gusto, conéctelo a su terminal y abra una cuenta en Brain In A Box. ¡Su vida cambiará!
El quid del cuento es que las cabezas robóticas tienen asignada una inteligencia media, que puede ampliarse a medida que uno incrementara su ancho de banda, o sea, desembolsa más dinero. La Inteligencia Artificial de la empresa era limitada y se distribuía entre los usuarios según el dinero que pagaba para ello. Así pues, si querías recibir alguna respuesta verdaderamente certera, entonces debías ampliar su actividad cognitiva, acelerar su procesamiento distribuido paralelo, acaparar más unidades lógicas para su terminal (en detrimento de los usuarios licitadores menores). Por eso el cuento se titula ¿Quieres ampliarme? Pero algo sucede cada vez que un usuario, totalmente desesperado, decide invertir absolutamente todos sus recursos económicos para buscar una respuesta (es decir, desprendiéndose de todo lo material).
Pero no os quiero contar todo el cuento, sino que este escenario podría estar un poco más cerca en lo que se ha venido a llamar roboterapia.
La roboterapia se ha convertido en una de las herramientas empleadas en salud mental para tratar diversos trastornos, entre ellos el autismo infantil, el Alzhéimer, depresión, déficit de atención, demencia, ansiedad o estrés. Por ejemplo, en el tema del Azhéimer hay investigaciones centradas en la introducción de un robot en las terapias cognitivas y en las sesiones de fisioterapia, comparándose los efectos positivos con los proporcionados por un perro adiestrado.
Estos psicorrobots pueden mover los ojos y otras partes del cuerpo, como los brazos, y están equipados con sensores que les permiten reaccionar al contacto y la voz humana. La función, pues, se parece a la que obran los animales de compañía (o los animales robots de compañía), pero con un buen plus tecnológico. Entre otras cosas, los psicorobots ayudan a los pacientes a relajarse, a recobrar la confianza y a hacer los ejercicios en las sesiones de terapia cognitiva y fisioterapia.
Hasta que esto se desarrolle hasta el punto de que nuestro robot nos pregunte con ojos inquisitivos ¿quieres ampliarme? y nosotros estemos dispuestos a darlo todo por conocer la verdad, siempre nos queda acudir al Dr. Abuse. Dr. Abuse es un programa de Inteligencia Artificial que demuestra comportamiento humano. Incluye síntesis de voz, por lo que puedes escuchar todo que te dice. Es posible también realizar terapia con él, por lo nos puede ser de gran ayuda si necesitamos a alguien que escuche nuestros problemas (aunque recordad que, a tenor de diversos estudios, es más eficaz escribir sobre nuestros problemas que contárselos a alguien).
Preguntas y respuestas frecuentes P. ¿Por qué Dr. Abuse me resulta aburrido y poco ingenioso? R. Cuanto más originales e interesantes sean sus comentarios más ingeniosas serán las respuestas de Dr. Abuse. El programa no es tonto y pronto se dará cuenta de si usted intenta tomarle el pelo. Sea divertido y Dr. Abuse será divertido. Conteste con desgana y Dr. Abuse también lo hará. P. ¿Puede Dr. Abuse hacer daño a mí o a mi equipo de alguna forma? R. El programa sigue Las Tres Leyes de la Robótica de Asimov: 1 – Un robot no puede hacer daño a un ser humano, o, por medio de la inacción, permitir que un ser humano sea lesionado. 2 – Un robot debe obedecer las órdenes recibidas por los seres humanos, excepto si estas órdenes entrasen en conflicto con la Primera Ley. 3 – Un robot debe proteger su propia existencia en la medida en que esta protección no sea incompatible con la Primera y la Segunda Ley.
Dr. Abuse es un poco tonto, pero ¿cuántos de vosotros estarían dispuestos a ampliar su inteligencia para que nos dijera a la cara lo que piensa de nuestros problemas?
Vía | Wikio / Gizmodo / Psicología y Terapias / Psicoactiva
Ver 7 comentarios