En un experimento realizado por la Universidad de Canberra, el robot Pepper, equipado con el modelo de lenguaje ChatGPT (versión GPT-3.5 Turbo), fue presentado al público durante un festival de innovación en Australia. El objetivo: observar cómo reacciona la gente al tener su primer contacto con una inteligencia artificial encarnada en un cuerpo robótico.
La interacción del robot Pepper con los humanos
Durante diez días, 88 personas interactuaron con Pepper dentro de una cápsula transparente diseñada para minimizar el ruido del evento sin aislar a los participantes del entorno social. Las conversaciones fueron semi-estructuradas y, al final de cada una, los participantes compartieron sus impresiones mediante respuestas abiertas.
La mayoría expresó emociones complejas y a menudo contradictorias: desde entusiasmo y sorpresa hasta frustración por las limitaciones técnicas del sistema. Las críticas más frecuentes estuvieron ligadas a la falta de sincronía entre el lenguaje verbal y el lenguaje corporal del robot, así como a fallas en la comprensión de acentos diversos.
Video de presentación de Pepper. Fuente: Aldebaran
A diferencia de un chatbot convencional, Pepper tiene una presencia física: hace contacto visual, se mueve y responde con voz. Este aspecto provocó respuestas encontradas. Algunos participantes sintieron mayor conexión gracias al cuerpo robótico, mientras que otros lo consideraron innecesario o incluso decepcionante cuando sus gestos no correspondían con lo que decía.
Varios usuarios también le atribuyeron personalidad y emociones al robot, refiriéndose a él con pronombres femeninos y comentando que “quizá necesitaba unas vacaciones”. Este fenómeno de antropomorfización abre la puerta a preguntas sociotécnicas sobre cómo percibimos a los sistemas de IA cuando tienen forma humana.
Turnos de conversación y expectativas humanas
Un punto sensible fue el incumplimiento de normas básicas de interacción social. Varios participantes dijeron que no podían interrumpir al robot, que este hablaba demasiado o no respondía cuando intentaban dirigir la conversación. Estos fallos en el “turn-taking” fueron vistos como barreras para una comunicación fluida.
También hubo señalamientos sobre la escasa capacidad del sistema para percibir emociones humanas o responder con empatía, lo que indica que los usuarios esperan un tipo de interacción más parecida a la que tendrían con una persona.
El estudio también reveló problemas importantes de accesibilidad. Participantes de origen diverso, incluyendo hablantes de español y miembros de comunidades indígenas australianas, reportaron que Pepper no los entendía correctamente o respondía con frases genéricas que no reconocían matices culturales.
Estas observaciones refuerzan la necesidad de integrar criterios de diversidad e inclusión en el desarrollo de sistemas de inteligencia artificial que operen en entornos reales y multiculturales.
Esta experiencia marca un avance en los estudios de interacción humano-robot en escenarios no controlados. A diferencia de los ensayos de laboratorio, este trabajo pone de relieve cómo el público general se relaciona con la tecnología cuando esta forma parte de su cotidianidad.
Los detalles de la investigación fueron publicados en la revista Nature.
¡Síguenos en las redes sociales y no te pierdas ninguna de nuestras publicaciones!
YouTube LinkedIn Facebook Instagram X (Twitter) TikTok
Fuente y foto: Nature