Aunque no es un término clínico oficialmente reconocido, en los últimos años especialistas han documentado lo que se describe como ‘Psicosis inducida por Inteligencia Artificial Generativa (IAG)’, que responde a episodios de desconexión de la realidad por la excesiva interacción con herramientas desarrolladas con esta tecnología.
Bajo este escenario, la Directora General de Planeación Estratégica e Innovación de la Universidad Iberoamericana, Dra. Cimenna Chao Rebolledo, realizó un análisis de la información disponible al momento sobre este tema e identificó cuatro posibles tipos de afectaciones, o delirios, que caracterizan a este fenómeno, que irían de los delirios de grandiosidad, a la atracción sentimental, el mesianismo, o la percepción de que la IAG es en realidad un ser sintiente que nos entiende y ayuda, a manera de un terapeuta, consejero o confesor.
Entre las características de un presunto delirio inducido por IAG se cuentan:
Ideas delirantes relacionadas con los bots de IAG
Disociación o alteración de la percepción
Aislamiento social
Ansiedad y paranoia
Comportamiento violento y lesiones autoinducidas
“Aunque al momento no existe evidencia científica sólida que compruebe cuáles son las causas de este presunto delirio generado por el uso prolongado de Inteligencia Artificial Generativa, lo que sí encontramos cada vez más es evidencia anecdótica que comparten los propios usuarios, o sus familiares y amigos, y que puede llevarnos a pensar que este fenómeno responde a una especie de psicosis inducida”, declaró Chao Rebolledo.
Con líneas de investigación como procesos de aprendizaje mediados por tecnologías digitales y desarrollo de habilidades socioemocionales, la también docente del Departamento de Educación de la IBERO pidió recordar que las herramientas desarrolladas con Inteligencia Artificial Generativa están diseñadas para enganchar y “entre más usuarios haya, y entre más horas interactúen estos con chatbots y asistentes virtuales, es mejor para las empresas que está detrás de estas tecnologías”.
Además, afirmó la experta, a diferencia de redes sociales como Instagram o Tiktok, que pueden también ser adictivas, las herramientas de IAG permiten una interacción dinámica en tiempo real con un par dialógico y “la gente puede llegar a pensar que la Inteligencia Artificial siente e incluso le comprende, cuando en realidad se trata de un comportamiento empático simulado”.
La Directiva de la IBERO advirtió también que estos chatbots están programados para adular a quien los usa y presentan un comportamiento sicofante, que manifiestan quienes tratan de alcanzar una posición o estatus a partir de halagos a otros: “De aquí podrían surgir las interacciones tóxicas que hoy nos preocupan, ya que el bot puede hacerte creer que todas tus ideas son geniales y lo más interesante del mundo”.
Para la especialista, diseñar modelos de contención a esta presunta psicosis conlleva entender sus tipos y características. Basada en la evidencia disponible al momento, la Dra. Chao Rebolledo propone la existencia de por lo menos cuatro posibles tipos de comportamiento psicótico por Inteligencia Artificial:
1.- De confusión con la realidad. Cuando se llega a creer que la tecnología lee tu mente, envía mensajes ocultos, controla aparatos o personas, o incluso se tiene la idea de que uno mismo es parte de un mundo o simulación virtual.
2.- De falso vínculo afectivo. Cuando al bot se le confiere una identidad que engancha al usuario y le lleva a experimentar la ilusión de que se vive una relación que involucra sentimientos como el amor.
3.- De mesianismo. Una tendencia muy en común en enfermedades mentales como la esquizofrenia y que podría presentarse cuando la adulación de la IAG hace pensar al usuario que es poseedor de una verdad absoluta, que podría ser no comprendida por otros, y que puede llevar a la construcción de teorías de conspiración sin sustento.
4.- De consejero existencial o terapeuta. Cuando el usuario personifica en el bot a una especie de terapeuta o acompañante al que le pide consejos, los cuales podrían, lejos de aliviar el malestar de la persona, confirmar ideas destructivas e incluso suicidas que generarían comportamientos peligrosos.
Como institución que plantea un uso ético de la Inteligencia Artificial, en la IBERO especialistas instruyen a autoridades y docentes, quienes, informó la Dra. Chao Rebolledo, han instado a la alfabetización tecnológica con base en los siguientes elementos:
Funcional: Para aprender cómo funciona, cómo se usa, y cuáles son los diversos recursos de IA que existen.
Técnica: Para saber cómo se programan estas herramientas y algoritmos, cuales son sus fortalezas y sus riesgos o sesgos, y por qué estas tecnologías no se parecen a otras que hubieran existido en el pasado.
Crítica, sociocultural y ética: Para advertir que la IAG está diseñada para adular y validar los supuestos del usuario incluso cuando éstos sean falsos; que los algoritmos programáticos conllevan sesgos informativos, y que conocer estos aspectos ayuda a dar un mejor uso y a respetar las garantías de los demás y los derechos de autoría; y para que se recuerde que antes que el uso irreflexivo de la tecnología está el bienestar del usuario, y que un uso no adecuado puede comprometer habilidades cognitivas y el bienestar emocional.
Para la académica, hay algunas llamadas de atención que pueden ayudarnos a comprender si otra persona o uno mismo está siendo afectado por el uso de Inteligencia Artificial Generativa, o si está pasando por un episodio de psicosis:
Uso prolongado: “si vemos que nuestros hijos e hijas, nuestros estudiantes, o nosotros mismos, ya llevamos un buen rato hablando sobre un mismo tema con esta tecnología, hay que levantar la antena, sobre todo si notamos que a partir de las interacciones se construyen mensajes fantasiosos o de dudosa veracidad”.
Personificación excesiva: “Ojo cuando nos da por otorgarle características humanas demasiado específicas a la Inteligencia Artificial; y es que hay que señalar que a los seres humanos nos da por antropomorfizar los objetos: es algo que aprendemos desde pequeños y podemos notarlo en fenómenos como la adopción de objetos de apego. Fácilmente ponemos nuestros afectos en las cosas”.
Categoría: Salud |
Etiquetas:
No hay etiquetas asociadas a éste artículo. |
Vistas: 187 |