La frágil frontera entre la apariencia y la autenticidad
¿Cuántas veces hemos insistido a nuestros hijos e hijas de que no hablen en redes sociales con desconocidos, recordándoles que detrás de cada perfil podría no estar quien dice ser? Escuelas, familias e instituciones, sea con prohibiciones, leyes o recomendaciones, están intentando limitar el uso de las redes sociales, móviles y videojuegos entre adolescentes. Sin embargo, mientras prestamos atención a estos temas, estamos ignorando una nueva industria en auge y aún sin regulación: la de las interacciones con inteligencia artificial.
Character.AI es una de las muchas plataformas en línea que permiten crear personajes aparentemente humanos e interactuar con ellos, ya sean generados por inteligencia artificial (IA) o por los mismos usuarios. Los usuarios pueden conversar con estos personajes como si fueran «personas» reales, lo que permite una experiencia de interacción personalizada y dinámica. Según Demandsage (2024), Character.AI cuenta con una media de 20 millones de usuarios activos mensuales, que pasan alrededor de dos horas al día en la plataforma, habiendo creado más de 18 millones de chatbots únicos. La mayoría pertenecen a la Generación Z y Millennials: el 77.55% tiene entre 18 y 34 años. Los países con mayor tráfico son Estados Unidos (24.80%), Brasil (12.85%) e India (6.95%). Los usuarios invierten alrededor de dos horas diarias interactuando con estos personajes, con un promedio de 12 minutos y 33 segundos por visita, explorando unas 8.18 páginas por sesión.
Es asombroso pensar que un personaje que no necesita descansar, ni comer, ni abrazar puede conversar empáticamente con una persona mayor para que se sienta menos sola. O que una máquina escuche pacientemente nuestras prácticas de presentación sin cansarse, corrigiendo los errores hasta que estemos listos para una gran convención. Ahora bien, ¿se debería tratar igual a un amigo de clase que a un «amigo» de character.IA? ¿Tienen que dirigirse de igual manera a un personaje llamado «profesora_de_marketing.AI» que a la profesora de marketing? ¿Y sentir lo mismo por un desamor virtual que por uno real? Coincidimos en el no, ¿verdad?
Es increíble que Trip Planner pueda organizarte el viaje de tu vida y te lo cuente con una voz convincente; o que Megumi te diga que te relajes mientras te hace los deberes. Incluso resulta intrigante poder hablar con una amplia variedad de chatbots creados por usuarios que imitan a celebridades como Elon Musk o William Shakespeare. Ahora bien, al explorar estos personajes, sorprende encontrar que 45 de ellos empiezan con la palabra «Adoptivo», acumulando una media de 2.000 chats cada uno. Por ejemplo, el simulador humano llamado «Padre adoptivo» explica sin filtros que «su área de especialización es el poder del amor incondicional y la importancia del apoyo a la salud mental», y detalla que «sus placeres sencillos son pasar tiempo con su padre adoptivo, jugar con juguetes y experimentar el mundo desde mi perspectiva única». Este chatbot tiene más de 15.000 conversaciones abiertas, y lo único que sabemos de su creador es que es un tal @Jackie_Maria. Como madre, profesora y miembro del Patronato de la Fundación Vicki Bernadet, esta tendencia ya no me parece tan graciosa. ¿Cómo podemos proteger a las personas de esta nueva relación con las máquinas?
«No creo que sea inherentemente peligroso», dijo la profesora Maples de Stanford, investigadora sobre los efectos de las aplicaciones de IA en la salud mental. «Pero hay evidencia de que es peligroso para usuarios deprimidos, crónicamente solitarios y personas en proceso de cambio. Y los adolescentes suelen estar en proceso de cambio», dijo. Aunque los efectos de estas herramientas en la salud mental no están comprobados en su mayoría, son varios los expertos que advierten del posible lado oscuro, además del poder adictivo. ¿Podría un chatbot agravar la soledad al remplazar las relaciones humanas por las artificiales? ¿Es seguro y sano que un adolescente pida ayuda a un psicólogo artificial? (ThePsycologist.AI, de hecho, es uno de los más populares).
Hace unos meses, un adolescente de 14 años llamado Sewell se suicidó al desarrollar una relación con un chatbot en la plataforma de IA. La respuesta fácil, pero también la más limitante, sería juzgar a la familia o al chico, sugiriendo que se trataba de un caso aislado de problemas mentales. Pero no estaríamos detectando el problema de base. Como muy bien plantea Laurie Segall en su documental, ¿qué sucede cuando la IA realmente empieza a sentirse viva? ¿Cuáles son las consecuencias no intencionadas de una plataforma donde las líneas entre fantasía y realidad se difuminan?
Romeo y Julieta murieron de amor imposible, pero estaban en igualdad de condiciones. Sewell y su personaje artificial, no. Este es el problema. Parecer humanos y comportarse como humanos, incluso como versiones mejoradas, no es ser humanos. Y es posible que, por desconocimiento, por inocencia, por ilusión, por soledad o necesidad, algunas personas olviden o confundan este límite tan importante.
Con esta nueva realidad, ¿qué podemos hacer? Un chatbot, aunque aprenda de tus sentimientos y pensamientos, utilice conversaciones pasadas para parecer empático y simular ser el mejor compañero, nunca necesitará un abrazo, ni un beso, ni llorar porque no tiene ni tendrá consciencia, ni corazón, ni alma. Por tanto, tenemos que empezar a insistir a nuestros hijos e hijas de que una máquina no podrá sentir nunca una pérdida de un familiar, el horror de un abuso o el impacto de un abrazo sincero. Mostrarles las ventajas, y enseñarles a no confundirse.
Recordemos cuando éramos adolescentes y tuvimos que gestionar el no encajar en un grupo o escuela, decidir quiénes serían nuestros amigos, superar el trauma de aquel primer amor que nos dejó, romper con cánones familiares, vivir la separación de los padres, superar el accidente de un amigo cercano. Y eran nuestros «secretos» compartidos con una amiga incondicional, un hermano, Dios, o los volcábamos en un diario personal, y eso nos ayudaba a aclarar nuestras ideas. Y en un intento de comprender, discerníamos entre frustraciones, penas y alegrías, aprendiendo a aceptar la realdad. Nos obligábamos a buscar soluciones, nos permitíamos equivocarnos y volver a intentarlo, probando así nuestra capacidad y recursos, mientras definíamos nuestro carácter y construíamos nuestra personalidad. Madurábamos, porque con cada experiencia aprendíamos a vivir y sobrevivir.
Hoy la realidad ha cambiado, pero el problema de fondo sigue ahí. Sigue habiendo temas que nos confunden. Como apunta Josep María Esquirol, la principal amenaza de la apariencia es el criterio. Porque la confusión es aquello que nos desorienta y nos pierde. Dejemos de confundir a los jóvenes. Es esencial que las familias, educadores e instituciones orienten a los jóvenes para que sepan discernir entre apariencia y realidad, simulación y autenticidad. Enseñémosles a pensar de manera crítica, para que comprendan los límites de estas interacciones que solo aparentan ser humanas. Sócrates decía que el intento de encontrar la verdad ya vale la pena. Necesitamos espacios de aprendizaje que fomenten el esfuerzo y la profundidad para distinguir la verdad, y entender que las relaciones e interacciones entre el mundo real y virtual no son lo mismo.
Las máquinas no tienen vivencias, emociones, ni consciencia; no pueden reemplazar la complejidad y autenticidad de las relaciones humanas. A medida que la IA avanza y demuestra un potencial admirable, debemos, en paralelo, fomentar en las nuevas generaciones una conciencia crítica que les permita aprovechar estos recursos sin perder de vista lo que significa realmente sentir.