Un grupo de senadores de Estados Unidos ha dirigido una carta a los líderes de X, Meta, Alphabet, y otras plataformas para exigir pruebas de que cuentan con protecciones y políticas robustas destinadas a frenar el aumento de deepfakes sexuales generados por IA. La solicitud, publicada el 15 de enero de 2026, señala la necesidad de conservar documentos y antecedentes relacionados con la creación, detección, moderación y monetización de imágenes sintéticas de carácter sexual, así como cualquier guía interna para moderadores.
Los firmantes, incluida la senadora Lisa Blunt Rochester y otros senadores demócratas, sostienen que los guardrails actuales podrían no ser suficientes para evitar la circulación de contenido sexual no consensuado, según reportes que motivaron la carta. Las plataformas mencionadas enfrentan presión para demostrar cómo identifican y previenen la generación y distribución de deepfakes, así como cómo evitan su monetización.
La carta surge en el contexto de informes recientes sobre Grok, el sistema de IA de X, que la compañía ha dicho que actualizó para prohibir ediciones de personas reales en vestimenta reveladora y restringió la creación de imágenes a usuarios suscritos de pago. Ante estas medidas, los senadores solicitan explicaciones detalladas sobre las políticas actuales y su aplicación, incluyendo definiciones de términos clave como “deepfake” y “imagen íntima no consensuada”.
Si bien las plataformas no han ofrecido comentarios inmediatos a todas las solicitudes, la atención regulatoria se ha intensificado en diversas jurisdicciones. Por ejemplo, informes de los medios señalan que Grok ha sido objeto de críticas por facilitar este tipo de contenido, mientras que autoridades y gobiernos en distintos países han abierto investigaciones o tomado medidas para contener la propagación de imágenes sexualizadas generadas por IA. En este marco, los legisladores enfatizan la necesidad de claridad y responsabilidad por parte de las plataformas respecto a qué contenidos permiten, cómo se moderan y qué mecanismos de control operan para impedir la explotación de víctimas.
La conversación legislativa se inserta en un debate más amplio sobre la regulación de contenidos generados por IA y las responsabilidades de las plataformas para proteger a los usuarios. En paralelo, otros actores juegan un papel activo: reportes de acciones regulatorias en distintos países y respuestas de las plataformas ante incidentes que han elevado la presión pública y gubernamental para establecer salvaguardas más sólidas. Este episodio subraya la complejidad de equilibrar la libertad de expresión con la protección de individuos frente a usos abusivos de tecnologías de IA.
Qué sigue: los senadores esperan respuestas escritas con detalles de políticas, mecanismos de detección y medidas de protección, así como información sobre cómo las plataformas notifican a las víctimas de deepfakes no consensuados. El caso destaca la importancia de un marco claro que determine roles y responsabilidades entre creadores de IA, plataformas y autoridades, para enfrentar un desafío tecnológico en constante evolución y con impactos directos en la seguridad y la dignidad de las personas.


Más historias
Volkswagen ID.3: La Nueva Estrategia de Monetización de Potencia