
El dilema de la identidad
Saber si hablamos con una persona o una máquina no es un detalle técnico, sino la base ética de una interacción digital clara, justa y basada en la confianza.
shared.rich-text
El designio de presentar sistemas inteligentes como si fuesen humanos puede verse como una forma de skeuomorphism conversacional. En diseño, el término describe cómo un objeto digital imita una forma física cuando no necesita hacerlo. En el campo del diálogo con IA, esa ilusión lleva a que los agentes hablen, respondan e incluso persuadan como si fuesen personas, sin serlo. ¿Es un problema práctico o una vulnerabilidad ética?
En 2025, estudios como el meta-análisis sobre comportamientos antropomórficos en grandes modelos lingüísticos demuestran que, tras varias interacciones, esas máquinas tienden a asumir una voz empática, usando pronombres en primera persona y conducta relacional, lo que incrementa la percepción de interlocución humana. Esa estética conversacional puede generar confianza, pero también opacidad respecto a la naturaleza real del sistema.
Los cuerpos legislativos han reaccionado. En abril de 2025, Massachusetts aprobó normas que exigen a las plataformas indicar claramente si quien habla es humano o IA. California ha seguido el mismo camino. Estas medidas responden a una preocupación compartida por parte de la comunidad científica: evitar que la simulación de humanidad erosione la capacidad de decisión informada del usuario.
Una investigación del Oxford Internet Institute, publicada en mayo de 2025, indica que los usuarios tienden a ajustar su comportamiento dependiendo de si creen estar hablando con un humano o con un sistema automatizado. Esa diferencia no es menor. Influye en el tono, en el nivel de confianza y en las expectativas frente a la conversación. En algunos casos, la falta de identificación explícita generó desconcierto o sensación de engaño cuando se reveló que el interlocutor era artificial.
Frente a este escenario, en Intuir hemos adoptado una posición clara: declarar siempre la naturaleza real del interlocutor. En nuestros correos, por ejemplo, usamos una sintaxis que lo indica sin ambigüedades: anna.humana@intuir.ai identifica a una persona; ventas.agent@intuir.ai a un sistema. Esta convención responde a un principio de respeto mutuo y se alinea con las recomendaciones del AI Act europeo, que desde 2024 exige que las interacciones generadas por IA sean claramente identificables por los usuarios.
Publicaciones como AI & Society o MIT Technology Review han subrayado en 2025 que esta práctica no es solo deseable, sino necesaria para evitar formas involuntarias de manipulación. El skeuomorphism, cuando se aplica a la voz y la identidad, puede ser eficaz, pero también equívoco. La línea entre facilitar la interacción y confundir al interlocutor es, a veces, demasiado delgada.
En última instancia, no se trata de impedir que un sistema suene natural o cercano, sino de asegurar que esa naturalidad no oculte su verdadera condición. La pregunta no es técnica, sino ética y cultural. ¿Queremos saber con quién hablamos, o nos basta con que la conversación funcione? En Intuir creemos que declarar la identidad es parte de una conversación honesta. Y preferimos, siempre que sea posible, que la forma acompañe al fondo.