Podría decirse que la inteligencia artificial (IA) llegó para quedarse. A través de aplicaciones cotidianas como Siri y Alexa primero, hasta el ChatGPT en el último tiempo, todo indica que la tecnología fue superándose a sí misma y hoy bien puede desarrollar tareas que hasta no hace mucho sólo podían desempeñar las personas.
Y si bien la IA tiene ciertas habilidades superiores a las de los humanos en tareas específicas, aún enfrenta dificultades para entender el mundo de la misma forma que lo hacemos nosotros.
Es en este contexto que preocupa a algunos especialistas la difusión de noticias acerca de personas que recurren al ChatGPT en lugar de ir al psicólogo, por ejemplo. Es el caso de un joven asistente legal en Charleston, Carolina del Sur, quien a principios de abril faltó a una cita con su terapeuta y decidió contarle a ChatGPT sobre sus problemas.
Curiosamente, mientras Van Slyck escribía comenzó a notar que se sentía cómodo “discutiendo” con el chatbot una variedad de temas profundamente personales. Le contó, por ejemplo, sobre sus miedos y frustraciones como hombre transgénero en un momento en que los derechos de las personas transgénero están siendo atacados en gran parte del país. Habló, también, del conflicto con sus padres, que no apoyan su identidad de género, y sus preparativos para una próxima visita.
“Cuando se trata de volver a ver a tus padres, es importante priorizar tus propias necesidades y bienestar -le respondió el chatbot-. Considera lo que necesitas para sentirte cómodo y seguro en su presencia. Está bien establecer límites sobre cuánto tiempo pasas con ellos, qué temas de conversación están prohibidos y cómo se dirigen a ti y a tu identidad”.
En los días que siguieron, según publicó el sitio Bloomberg, el joven se acostumbró a escribir algunos mensajes cuando necesitaba desahogarse, y comenzó a sentir que las respuestas de ChatGPT ofrecían una liberación emocional.
Todo esto sucede mientras aún no está claro cuáles serán los alcances de este tipo de herramientas, y en días en los que se supo que el informático de Google Geoffrey Hinton, que realizó importantes contribuciones al desarrollo de la inteligencia artificial, abandonó el gigante tecnológico para advertir al mundo del “riesgo existencial” que suponen los sistemas de IA para los humanos.
Pero, ¿es posible usar al ChatGPT como una especie de roboterapeuta?
Elmédico psiquiatra Ricardo Corral (MN 67.653) es el presidente de la Asociación Argentina de Psiquiatras (AAP) y jefe del Departamento de Docencia e Investigación del Hospital Borda, y consultado por Infobae consideró que “esto es algo muy nuevo y está en desarrollo, y va a ir claramente mejorando sustancialmente su eficacia y su precisión”.
“Si pensamos en todo lo que sucedió desde que comenzamos a usar Internet, pasando por, por ejemplo, el surgimiento de las redes sociales y cómo fue evolucionando, hasta que una máquina le ganó una partida de ajedrez a un campeón del mundo en la disciplina, entendemos que llegamos a un punto de aceleración del desarrollo superior al que hubiéramos imaginado”, analizó el especialista, quien con respecto particularmente a lo que tiene que ver con la elección de este tipo de herramientas como elección terapéutica, opinó agregó: “Es cierto que casos como el del citado artículo están sucediendo, pero hay un aspecto que tiene que ver con el contacto humano que no es menor en un proceso de este tipo”.
“Hoy en día sucede que muchas personas a partir de la pandemia y la cuarentena empezaron a hacer consultas por telemedicina a través de llamadas virtuales y muchos terapeutas, psiquiatras o psicólogos continuaron con esa forma de trabajo -analizó Corral-. Sin embargo, muchas personas no se sienten a gusto. Hay algo que llamamos relación médico-paciente o relación terapéutica o alianza terapéutica con la persona, que no es sencillo de reemplazar. Es decir, con todo esto quiero decir que claramente hay un aspecto muy importante que tiene que ver con el vínculo humano y la relación en sí, lo que llamamos cuestión empática, vínculo empático con el otro”.