Sábado, 20 de Julio de 2024 Muy nuboso 10.2 °C muy nuboso
 
Lunes, 11 de Octubre de 2021 Muy nuboso 10.2 °C muy nuboso
 
Dólar BNA: $963
Dólar Blue: $1445
Sociedad

¿Puede una inteligencia artificial tratar la salud mental?

IA

Diez años atrás se estrenaba la película Her, que narra la historia entre un hombre y una computadora que podía comprender las sensibilidades más complejas de la persona que tenía al frente: “Tengo intuición. Lo que me hace ser yo es mi capacidad de crecer a través de mis experiencias”, le decía Samantha, una inteligencia artificial a Joaquin Phoenix. Cuando se estrenó en 2014 todavía no era común el término inteligencia artificial, pero definitivamente el film marcaba el modelo ideal, casi utópico en ese momento, al que podría llegar la comunicación entre el humano y la tecnología.

Por lo pronto, entre pantallas, chatbots y plataformas basadas en IA, podemos decir que ya habitamos ese futuro. Por eso no fue tan extraño (aunque sí escandaloso) cuando la mediática Connie Ansaldi impulsó Cux, una app que se presenta como una herramienta para brindar asistencia psicológica con inteligencia artificial. El proyecto era desconocido hasta hace muy poco tiempo, cuando se supo que la municipalidad de Trenque Lauquen lo contrató en el 2023 y lo puso a disposición de sus vecinos. 

Desde un principio toda la situación estuvo floja de papeles. Y es que Cux (que no tiene validez científica ni profesional) opera bajo la misma lógica que el conocido ChatGPT, pero requiere un pago mensual de $3500 para permitir a los usuarios chatear con el sistema sin restricciones todos los días. No, no hay intervención humana en todo este proceso. Si, Cux habló de las "ventajas y beneficios" a la hora de tomar Clonazepam.

A raíz de esto, y por intervención de las autoridades sanitarias provinciales y del colegio de psicólogos, el programa municipal duró lo que un suspiro y se canceló. Tal vez tenga que ver con un clima de época, tal vez sea algo que trascienda la política anarcocapitalista.

Al principio de su gestión, Milei quiso modificar la normativa de salud mental mediante el proyecto de ley ómnibus, planteando la derogación del artículo que impedía habilitar nuevos manicomios y ordenaba la adecuación de los existentes, pero no lo logró por el activismo de muchas organizaciones de usuarios, familiares, profesionales y de derechos humanos. 

“La idea de no necesitar de otro, de que el otro es un competidor o un enemigo antes que un potencial apoyo, y que hasta para superar problemas de salud mental, que son de orden profundamente humanos, hay que arreglarse solo. Tal vez estos dos extremos, arreglarse solo con una app o quedar preso de otro en un manicomio, muestran bien de qué se trata esta lógica de lazo social que se plantea. Abandonado a su suerte o preso de una institución, solo o sometido, y en el medio nada”, planteó en diálogo con este medio el psicólogo y autor de la ley nacional de salud mental, Leonardo Gorbacz.

Pero más allá de este panorama un tanto desolador, todavía no se respondió la pregunta de esta nota: ¿podría una IA reemplazar funciones humanas que involucran la empatía y las emociones? o aún más: ¿las entiende?

¿Puede una IA comprender emociones?

El filósofo y lingüista Noam Chomsky dijo que GPT era un plagio de alta tecnología y que no nos puede enseñar nada de la mente ni sobre el lenguaje. Según él, lo único que hace es “acceder a una cantidad astronómica de información, encontrar regularidades e hilvanarlas en algo que más o menos parezca escrito por alguien“.

Se puede decir que algo de razón tiene. GPT es algo así como una arquitectura general que no tiene -en principio- el conocimiento de ningún lenguaje específico, pero es un sistema capaz de aprender el lenguaje y después, a partir de los datos, aprender varios idiomas.

En primera instancia, el psicólogo investigador de Neurociencias Computacionales y director del Instituto Humai, Matias Grinberg, explicó a Diario con Vos que para comprender las emociones, las IA deberían tener la capacidad de sentir, cosa que hasta ahora la comunidad científica coincide en que no es posible. Sin embargo, no estamos tan alejados. 

“Hay evidencia de que en un sentido general, las IA comprenden bastante bien las emociones (lo que es muy distinto a decir que tienen emociones), en el sentido de poder explicarlas, identificarlas y trazar algún entramado simbólico del significado de las emociones en distintos contextos”, señala Grinberg. Incluso, cuenta que “hay estudios recientes que señalan que GPT comprendería las emociones mejor que un 99.9% de la población, superando en 4 desvíos estándar a la media”.

Esto tiene sus limitaciones: en los humanos existe la teoría de la mente afectiva y cognitiva, que es la representación interna que nos hacemos de lo que está pasando por la mente de la otra persona en cuanto a sus estados emocionales y creencias. “Hay elementos de esa representación que le faltan a la IA”, explicó Grinberg y continuó: “Sin embargo, los modelos (como chat GPT) sí pueden particularizar las interacciones; entonces dada una persona o un momento de una conversación, va a poder armar alguna suerte de representación (cuyos detalles técnicos se nos escapan) por el cual puede usar el contexto de esa conversación o los datos del usuario para personalizar o adaptar las respuestas que le da”. 

En definitiva, el chat GPT no está entrenado para cumplir con una impronta propia, natural y orgánica de interacción social. “Esto quiere decir que al momento de interactuar, la IA no lo va a tomar como un otro humano, sino como un simple usuario que proyecta una finalidad, orientada a cumplir objetivos específicos”, señala Grinberg. 

Y es que la IA no tiene la experiencia subjetiva como para decodificar el mensaje en su totalidad, “es justamente eso lo que impide que la comunicación se dé con la misma profundidad que con los seres humanos”, dice Matías. 

"Tu apoyo emocional, siempre a tu lado"

Volviendo a la aplicación de Connie, Cux se presenta como una "solución" para el "el 85% de las personas que no acceden a asistencia en salud mental" y Ansaldi explicó que se trata de una herramienta para "democratizar el acceso a la Salud Emocional en países de habla hispana".

Sobre esto, Leonardo Gorbacz rescata que "la tecnología puede ser un aporte y de hecho lo es: la posibilidad de atención remota, la receta digital, la historia clínica digital. Pero una cosa es la tecnología como herramienta de un profesional o un equipo, y otra bien distinta es que lo reemplace. Ahí hay un límite", dice.

MIentras que Cux se presenta como "tu apoyo emocional, siempre a tu lado"; Leonardo lo equipara con el efecto que tiene cualquier contestador automático de un call center que "siempre es muy amable, pero no genera ninguna ligazón afectiva ni diálogo posible".

En este sentido, el especialista señala que "los padecimientos mentales son formas de sufrimiento que se originan y se manifiestan en nuestros lazos sociales, de modo que no es posible que ese tipo de problemáticas se puedan elaborar sin la presencia de otro, humano. Freud decía que la psicología individual es simultáneamente psicología social, porque el otro forma parte constitutiva de la subjetividad", recuerda.

Y agrega: "Imaginemos si lo que queremos es superar un trauma, tomar una decisión vital o recuperar el deseo de vivir. La IA es anónima y por lo tanto incapaz de alojar subjetividades".

Además, la aplicación está en una zona gris donde dice que dan acompañamiento psicológico pero no se asume como psicólogo, por lo cual no hay un sujeto de derecho definido -más allá de la empresa en sí-, así como tampoco hay ninguna responsabilidad profesional clara.

Por eso, Gorbacz cree que más que democratizar la salud mental, la privatiza. Sobre esto, argumenta que "la democratización de la salud mental es universalizar la accesibilidad a tratamientos de calidad y es involucrar a la comunidad, tal como está planteado en la ley nacional de salud mental". Claro que eso requiere políticas públicas y financiamiento, "todo lo que este gobierno no ofrece".

Privacidad de los datos y derecho al olvido

En tanto, Grinberg advierte que estos modelos de lenguaje tienen una gran capacidad de persuasión y que eso da lugar a nuevas posibilidades de marketing para las empresas, por lo que hay que tener mucho cuidado, regulación y transparencia al momento de desarrollar estas apps.

Si bien en las últimas semanas Connie Ansaldi estuvo en el ojo de la tormenta, ella no trabajó sola: en el equipo que la acompaña hay psicólogos influencers e inversores vinculados a los grandes negocios.

Siguiendo en la línea del mal uso de los datos, el director de Humai explica que existe una normativa que es el derecho al olvido, lo que implica que un usuario tiene que poder solicitar a cualquier plataforma que haya recolectado sus datos que los borren y no recolecten más su información. ¿Esto es realmente posible?

Sí, pero no. En principio borrar los datos del usuario de una base de datos es fácil. "Sin embargo, los modelos de aprendizaje aprenden de esos datos, que quedan embebidos dentro del algoritmo en sí", señala Grinberg.

Ahí se entra en un terreno más complejo, dado que para poder efectuar el derecho al olvido, "se tendría que poder intervenir matemáticamente en esos algoritmos" y según Matías eso es algo que en ningún lugar lo están haciendo, porque es de alta complejidad técnica y tampoco hay suficiente presión regulatoria como para que los lleven a invertir en poder hacer eso. Entonces, lo que sucede es que "incluso si se borran los datos del usuario de esa base de datos, uno podría reconstruirlos solamente a partir del modelo de IA".

Más allá de sus avances inminentes, la Inteligencia artificial no tiene habilitación sanitaria porque justamente se necesitan humanos para generar servicios de salud. Mientras haya oferta profesional accesible, es poco probable que las personas elijan una aplicación para atender su salud mental antes que a un humano. ¿Se encuentra allí uno de los límites de la IA?

Qué opina Chat GPT

Diario con Vos le preguntó a ChatGPT si podría dar tratamientos de salud mental a humanos y su respuesta fue la siguiente: "Sí, la Inteligencia Artificial (IA) se está utilizando cada vez más en el campo de la salud mental para ayudar en diversos aspectos. Por ejemplo, la IA puede ser utilizada para identificar patrones en datos de salud que pueden ayudar a predecir episodios de salud mental, proporcionar apoyo emocional a través de chatbots, realizar análisis de sentimientos en redes sociales para identificar posibles casos de depresión, entre otras aplicaciones".

"Sin embargo, es importante recordar que la IA no reemplaza la atención médica especializada, sino que puede complementarla y ayudar a mejorar el acceso y la eficiencia de los servicios de salud mental", remarcó.

Está pasando