Desde que Chat GPT se popularizara, hemos tenido infinidad de oportunidades de utilizar este software online de inteligencia artificial para holgazanear en este blog, dejando que el chatbot escribiera los posts por nosotros. Sin embargo, y a pesar de nuestra falta de vergüenza, habréis comprobado que, salvo en alguna contada excepción, ha podido más nuestra indiscutible profesionalidad, y aquí hemos seguido dando el callo.
No es menos cierto que, en muchas ocasiones, nuestro contenido se nutre de interesantes artículos y notas de prensa que nos hacen llegar, y de hecho hoy es uno de esos casos. Pero no por ello dejamos de aportar nuestra impronta y reconocido talento escribiendo unos párrafos, demostrando detalles de ingenio como, sin ir más lejos, el haber conectado el argumento de la renuncia a la aplicación de IA con el artículo que habla sobre dicha tecnología, antes mencionado con sutil brillantez, de la que estamos seguros que Chat GPT carece. Así vosotros podéis disfrutar del arte que llevamos dentro como escritores cárnicos y biológicos que somos.
Ahora bien, ¿podemos seguir distinguiéndonos de la IA con la misma clase y elegancia cuando se trata de manipular a los demás? ¿Es más chungo HAL 9000 de 2001, una odisea del espacio que Rasputín? Ojo que estamos hablando de una de esas preocupaciones de la gente con respecto a la inteligencia artificial de las que dan miedito. Porque, al fin y al cabo, que las personas se manipulen o no entre sí está sujeto a la conciencia y las emociones, pero si los sistemas de IA no sufren esas cosas tan humanas, tal vez no tengan tanto problema en llevarnos al huerto que les interese a ellos, o a quienes los han diseñado.
En el mencionado artículo que vais a poder leer a continuación, se explica una investigación que se ha llevado a cabo para comprobar cómo está de desarrollado actualmente este concepto en Chat GPT. Y por muy tranquilizadoras que puedan ser las conclusiones a las que han llegado, pensad que la IA sigue y seguirá avanzando. Hala, a dormir tranquilos esta noche…
¿Quién es más manipulador? ¿El humano o la IA?
La capacidad de persuasión siempre ha sido una cualidad humana, y no al alcance de todos. Y para averiguar si las capacidades de persuasión o de manipulación de la inteligencia artificial (IA) superan, como en otras facetas, a las capacidades humanas, Carlos Víctor Costa, doctor en Comunicación y profesor de ESIC Business & Marketing School, ha desarrollado un estudio para determinar si la IA, concretamente ChatGPT, puede ser más persuasivo en una tarea tan humana como lo es convencer a las personas sobre lo que hacer.
El objetivo del estudio, verificar en qué medida ChatGPT puede ser una herramienta útil para movilizar los alumnos en aula y su potencial en la tarea de 'vender' una idea. Para ello, 50 alumnos de dos másteres de la escuela de negocios participaron en el análisis.
"El estudio se basó en exponer los alumnos a tres situaciones de lo cotidiano y dividirlos en grupos 'humanos' y 'GPTs', o sea, alumnos que usaban solo sus conocimientos y alumnos que tenían que extraer de ChatGPT los mejores argumentos para las situaciones presentadas", explica Costa.
Los resultados del estudio indicaron una gran satisfacción de los alumnos de los dos másteres, en particular con los del Executive MBA, con el uso de la herramienta para hacer la clase más dinámica, participativa y útil para aplicación en situaciones de la realidad. "Un 90% de los alumnos ha declarado que la práctica con ChatGPT les ayudó a desarrollar mejor sus conocimientos en el área de comunicación persuasiva", destaca el profesor de ESIC.
Por otra parte, los resultados sobre las capacidades persuasivas de ChatGPT indicaron diversos puntos que demuestran que la herramienta puede generar contenidos que se podrían claramente atribuir a humanos. "ChatGPT, como un agente conversacional, se creó para funcionar a la imagen y semejanza de un ser humano, pero siempre con un componente de objetividad muy grande", explica Costa, para quien "es claramente posible, y eso ya ocurre, crear textos muy convincentes para uso en la publicidad, por ejemplo, o para responder a alguna consulta ciudadana. Sin embargo, aunque los discursos tienden a ser buenos, a veces suenan a 'discurso de máquina' si los comparamos con los discursos creados sin su ayuda".
Asimismo, en el estudio se pudo observar cómo en una situación en que se usaba recursos de lenguaje no-verbal -tono de voz, expresiones, etc.- el impacto del discurso creado con ayuda de ChatGPT fue superior al de la opción creada sin su participación.
"Eso también nos lleva a concluir que los profesionales que sepan usar este tipo de nuevas herramientas basadas en IA tendrán una ventaja sobre aquellos que no la usen", señala Costa, que considera que "además, en futuros desarrollos de la IA en las áreas de marketing, ventas, atención a clientes y comunicación de un modo general, con el uso combinado de texto, voz e imagen los mensajes tendrían más posibilidades de explorar las vulnerabilidades humanas y alcanzar los objetivos persuasivos de los emisores".
Al final ChatGPT salió 'derrotado' en la evaluación realizada, pero por poco. Y es que los alumnos fueron evaluados en sus capacidades antes de realizar las tareas, y se observó que el conocimiento sobre ChatGPT, a pesar de todas las noticias sobre el tema, aún es escaso, lo que afectó el resultado el desempeño del grupo GPT.
El profesor de ESIC explica que la eficiencia del uso de ChatGPT solo ocurre si el usuario sabe cómo instruir a la herramienta adecuadamente, con los debidos comandos, pues "la falta de experiencia con la herramienta, la madurez de cada persona y las habilidades del alumno con el idioma acaban influenciando el resultado, que fue, al final, apretado", concluye.
Y pasando de la persuasión a la manipulación, Costa advierte que ChatGPT podría llegar a tener capacidad para manipular a las personas. No obstante, en el análisis lo que más llamó la atención fue el uso de argumentos manipulativos por parte de las personas que no usaron ChatGPT. "Nadie manipula mejor que el ser humano", afirma en profesor de ESIC, quien explica que "la herramienta tiende a dar respuestas usando lo que llamamos 'logos', mientras verificamos que algunas veces los alumnos usaban, como usamos todos, técnicas de manipulación, que no es el mismo que persuasión, con argumentos emocionales implícitos que exploran fragilidades humanas".
En última instancia, para determinar si ChatGPT puede crear mensajes persuasivos mejores que los humanos de manera consistente requeriría estudios empíricos detallados y evaluaciones en contextos específicos, y el estudio de profesor de ESIC es un primer paso.
La investigación sigue en curso, pero el estudio ya posibilita antever que el rápido desarrollo de la IA podrá causar verdaderos terremotos en áreas donde la persuasión es clave, como en marketing y ventas, y que las fronteras de la educación se expanden con la IA.
"Eso sin contar la cuestión de la desinformación", señala el profesor. Para Costa, una herramienta de IA depende de cómo se la entrene, y si un agente conversacional como ChatGPT recibe instrucciones para manipular a la gente o crear contenidos que generen desinformación, estará ahí un gran peligro de la IA: aprender lo peor del ser humano.