Same Day compras hasta las 15:00 (Lun-Vie) y 14:00 (Sáb) en Santiago.

0

Tu carrito está vacío

La IA encontró su límite en el “respeto histórico”

octubre 17, 2025

La IA encontró su límite en el “respeto histórico” - Bestmart

Si quieres explorar cómo la tecnología se integra al hogar, pincha aquí.

OpenAI volvió a estar en el centro del debate tecnológico esta semana tras detener la generación de videos con la imagen de Martin Luther King Jr. en su modelo Sora, luego de recibir denuncias por representaciones consideradas ofensivas o irrespetuosas.

Según confirmó la propia compañía a TechCrunch y Business Insider, la decisión se tomó tras reclamos del patrimonio del líder de derechos civiles, que pidió expresamente bloquear el uso de su figura hasta establecer nuevas políticas de control y consentimiento.

El problema se originó cuando algunos usuarios de Sora utilizaron la herramienta para crear escenas que caricaturizaban o distorsionaban la imagen de King, generando indignación en redes y en organizaciones de derechos humanos.

La respuesta de OpenAI

El respeto a la libertad creativa fue una de las primeras respuestas que tuvo la compañía detrás de esta IA generativa, pero añadiendo que no puede permitir que figuras históricas sean manipuladas sin el contexto o la aprobación adecuada. Desde ahora, los patrimonios de personajes públicos podrán solicitar la exclusión de su semejanza en los videos generados por Sora, en un intento de equilibrar innovación y respeto.

Este caso se suma a una creciente controversia sobre el uso de inteligencia artificial para recrear personas fallecidas, desde artistas y políticos hasta actores clásicos.

Como destacó The Guardian, Estados Unidos carece de una ley federal clara que regule este tipo de contenido digital, lo que deja un vacío legal sobre quién tiene el derecho de controlar o impedir la reproducción de su imagen mediante IA. La situación con Martin Luther King reaviva el debate ético sobre los límites de la creatividad automatizada y el respeto por la memoria colectiva.

Más allá del aspecto legal, este episodio también plantea preguntas técnicas y morales sobre la fiabilidad y neutralidad de los modelos de video generativo. Investigaciones recientes advierten que Sora aún muestra inconsistencias visuales y sesgos heredados de los datos de entrenamiento, lo que refuerza la necesidad de sistemas de auditoría y transparencia.

Si bien OpenAI ha reconocido estos desafíos, expertos sostienen que la industria necesita mecanismos de supervisión antes de que los videos sintéticos se conviertan en una herramienta de desinformación o manipulación cultural.


Dejar un comentario