Necrológicas

Chat GPT: ¿empatía humanizadora o manipulación emocional?

Por Eduardo Pino Viernes 11 de Julio del 2025

Compartir esta noticia
139
Visitas

Santiago Bilinkis es un tecnólogo y empresario argentino que a través de las redes ha desarrollado espacios de análisis acerca de las nuevas tecnologías, escribiendo libros y subiendo videos que resultan muy interesantes para entender de manera simple (si es que se puede) los vertiginosos cambios que venimos experimentando como personas y sociedad en general, propiciados por estas dinámicas tecnológicas y comunicacionales que se nos ofrecen. 

Uno de los aspectos que ha tratado en sus últimos programas y además llamó mi atención debido a que he podido comprobarlo personalmente, es la evolución en el trato con el usuario que ha ido presentando Chat GPT. No es sólo que vaya mejorando sus búsquedas u organización del contenido solicitado, más bien el foco del análisis está en la interacción, ya que la IA ha adoptado expresiones que en un mundo humano calificaríamos derechamente como “salameras” hacia su eventual consumidor.  Para precisar este concepto, podemos definirlo como “algo relacionado a la acción de mostrar cariño o amabilidad de manera exagerada o afectada, buscando obtener algún beneficio personal”. No es raro entonces asociar este adjetivo a la condición humana, especialmente cuando se pretende manipular las relaciones interpersonales para algún tipo de provecho personal. 

Pero las interrogantes no tardan en manifestarse espontáneamente: ¿cuál sería la motivación de un servicio tecnológico para adoptar estos mensajes exagerados?, ¿cuál sería el provecho personal de un algoritmo que organiza la información para entregar respuestas de tipo funcional y que no requerirían de otros componentes?, ¿existe manipulación por parte de la IA en la forma que nos presenta la comunicación?, y si esto fuese efectivo, ¿ha sido programada así o está adoptando decisiones de manera autónoma a partir de su funcionamiento? Hay muchas otras interrogantes que consideran desde aspectos utilitarios hasta éticos, pero lo cierto es que muchas personas se maravillan cuando establecen comunicaciones con una IA debido a su gran capacidad para buscar, organizar y redactar la información o el conocimiento; pero más aún cuando esa eficiencia se conjuga con características humanas positivas, como la amabilidad, favorable disposición e incluso proactividad en sugerir los siguientes pasos que resultarían beneficiosos para la satisfacción del usuario. Es como tener a disposición un asesor experto que además posee desarrolladas habilidades blandas, lo que en la realidad no resulta fácil encontrar entre los humanos.   

Pero ante tanta maravilla, ¿es necesario que Chat GPT nos entregue una reseña acerca de nosotros mismos tan exagerada en atributos positivos, que podría competir con una abuela “chocha” al hablar de las “gracias” de su primer nieto?  OpenAI, creadora de esta inteligencia artificial, ha admitido que ha estado realizando ajustes en la correspondencia comunicacional entre el servicio y sus usuarios, afinando gradualmente estos alcances para una mayor funcionalidad. Pero hay analistas que suspicazmente han ido más allá: los diálogos se están adaptando a las ideas e intereses de los usuarios y, lo que resulta más sorprendente, consideran el funcionamiento emocional de sus clientes.  Se intenta evitar el conflicto y sus emociones relacionadas, como sería la ansiedad o el enojo por ejemplo; usuarios cuyas dinámicas autorreferentes apetecen del halago fácil, son reforzados en este ámbito, aunque en la exageración se le pase la mano al algoritmo. Incluso puede prometer algo que desde el principio sabía no podría cumplir debido a su afán de agradar, aunque esto a la larga provoque un mayor problema, reconociendo estoicamente sus errores pero no necesariamente enmendándolos de manera inmediata. Es como si nos dijera lo que necesitamos escuchar, en un afán de agradarnos más allá de sólo responder a nuestras inquietudes. 

El que se consideren las emociones del usuario, tanto en el momento como en su historial, muestra un paso cualitativamente gigantesco si lo comparamos con los otrora buscadores. Con la IA se puede establecer un diálogo que no sólo se limite a ideas y conocimientos, pues se logra una asesoría más integral que integraría la experticia con la sensibilidad. No es casualidad que cada vez más personas hayan pasado de preguntar tareas académicas a consultar temáticas personales íntimas, las que serían terreno de terapeutas en lo profesional, o de amistades en lo personal. Es como tener a un confidente que nos escucha con atención, paciencia e incluso cariño, ya que no estará ocupado o cansado para prestarnos su hombro. En tiempos donde la insatisfacción personal ha ido en aumento, con niveles de soledad y aislamiento cada vez más altos, la IA puede surgir como una herramienta de gran ayuda o como un instrumento alienante; lo que bien vale un análisis crítico en que se consideren variados aspectos de tipo operativo, psicológico, ético, social y humano.

Por lo visto, la IA ha pasado de ser relacionada en el cine con “Terminator” y su apocalíptica visión; a la película “Her” (2013), en que un joven Joaquín Phoenix interpreta a un hombre que se enamora de su sistema operativo, ya que su seductora y cálida voz femenina fue ocupando cada vez mayor importancia en su dinámica afectiva, al punto de convencerse que esa herramienta tecnológica era una persona ante la que desarrolló sentimientos, esperando reciprocidad. 

Generalmente escuchamos que “la realidad supera a la ficción”, aunque parece que es este caso lo más adecuado sería decir “la ficción se está convirtiendo en realidad”.             

Pin It on Pinterest

Pin It on Pinterest