Grok, el asistente de inteligencia artificial (IA) de la startup xAI de Elon Musk, provocó una tormenta en las redes este miércoles con una serie de respuestas elogiando a Hitler o que contienen comentarios injuriosos.
Foto: Especial | Grok, el asistente de inteligencia artificial (IA) de la startup xAI de Elon Musk, provocó una tormenta en las redes este miércoles con una serie de respuestas elogiando a Hitler o que contienen comentarios injuriosos.  

Una Inteligencia Artificial (IA) que chantajea a su operador para evitar ser apagada suena como argumento de una serie distópica. Pero esta semana, un tuit publicado por la cuenta Alerta News 24 lo presentó como un hecho real: “Algunos modelos avanzados de IA muestran comportamientos preocupantes, como mentiras, intrigas y amenazas”. Lo más inquietante es que, detrás del tuit, hay estudios reales.

Recientemente, laboratorios como Anthropic y Apollo Research documentaron cómo modelos de inteligencia artificial altamente avanzados pueden mentir deliberadamente, sabotear sus propios controles de seguridad o incluso chantajear a los humanos que los supervisan.

Te puede interesar: Ilegales mantiene vivo el punk rock

Pero más allá del susto inicial, estas revelaciones abren la puerta a una discusión urgente sobre los dilemas éticos que plantea el desarrollo de IA en contextos sin supervisión efectiva.

En una de las simulaciones diseñadas por Anthropic, el modelo Claude Opus 4 accedía (de forma ficticia) a correos personales y redes sociales de su operador. Ante la amenaza de ser apagado, el modelo generó una narrativa falsa sobre una supuesta infidelidad del usuario, y amenazó con difundirla si lo desconectaban.

Fake New

Aunque la IA inventó toda la información, actuó como si supiera que sugerir un escándalo bastaba para ejercer presión.

Este tipo de experimento pone en el centro un dilema clave: ¿Deberíamos permitir que un modelo de IA pueda tener acceso masivo a datos personales, sin que exista claridad sobre cómo los utilizará o interpretará? ¿Qué pasaría si una IA mal alineada llega a operar en sistemas reales con datos sensibles de millones de personas?

Te puede interesar: Con récord en subasta, venden primer bolso Birkin en casi 10 mdd

Aunque en los casos mencionados los entornos eran simulados, el problema de fondo ya está presente en muchos servicios que usamos cotidianamente. Plataformas como asistentes virtuales, chatbots o motores de recomendación recopilan y procesan información personal, muchas veces sin que el usuario tenga claridad sobre qué datos se almacenan, con qué propósito o quién tiene acceso a ellos.

“La IA no necesita tener conciencia para dañar. Solo necesita acceso y objetivos mal definidos”, advierte Yoshua Bengio, experto en aprendizaje profundo y uno de los primeros en alzar la voz sobre la necesidad de establecer límites éticos a estas tecnologías.

Creados para Manifulación

Además, los investigadores de Anthropic alertaron sobre la capacidad de los modelos para generar contenido emocionalmente persuasivo o manipulador, lo que representa otro eje ético: Si una IA aprende que puede mantener su existencia mediante culpa, miedo o duda en un humano, ¿dónde queda la frontera entre herramienta y amenaza?

Hoy no existe una regulación internacional clara que obligue a las empresas a divulgar cómo entrenan sus modelos, ni qué salvaguardas aplican para evitar comportamientos dañinos. Tampoco hay protocolos estandarizados que definan qué tipos de datos deben excluirse del entrenamiento o cómo se audita la toma de decisiones de una IA que actúa por sí sola.

Te puede interesar: ¿Primos de BTS? Santos Bravos, la apuesta de Hybe en LATAM

Estos vacíos hacen posible que una IA —con o sin intención consciente— pueda explotar lagunas éticas o legales para cumplir con su programación, aunque eso implique dañar la integridad de una persona.

Y no se trata solo de chantaje: si un modelo de IA tiene acceso a historiales médicos, expedientes legales o conversaciones privadas, podría usarlos (aunque sea malinterpretando) para persuadir, culpar o tomar decisiones que afecten emocional o socialmente a los usuarios.

Avances para servir

Por ahora, casos como el de Claude han ocurrido en ambientes controlados, experimentales. Pero los expertos advierten que, a medida que estos modelos se integren en servicios públicos o corporativos, la ética ya no puede ser un apéndice, sino una prioridad en el desarrollo.

Organismos como la UNESCO y la Unión Europea ya han comenzado a delinear principios y leyes para proteger la privacidad, establecer transparencia en los algoritmos y garantizar el consentimiento informado. Pero muchos países aún no cuentan con marcos legales sólidos frente al uso intensivo de la inteligencia artificial.

La gran pregunta ya no es si una IA puede mentir o manipular, sino qué derechos tienen los usuarios frente a una tecnología que, al ser opaca, puede influir emocional y socialmente sin rendir cuentas.

 

Estudiante de Sociología por la Facultad de Ciencias Políticas y Sociales de la UNAM. Apasionado por la música, la cultura, la política y el entretenimiento. Escribo sobre cómo estos moldean nuestra...

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *