La cartera de IA de la FTC está a punto de crecer

La Comisión Federal de Comercio está dispuesta a profundizar su participación para frenar el uso de la IA con fines maliciosos, incluida la difusión de deepfakes sexualizados no consensuados y estafas de clonación de voz.

El año pasado, el Congreso aprobó la Ley Take It Down, una ley que permitía el procesamiento penal de personas que compartan o distribuyan imágenes íntimas no consensuadas y falsificaciones digitales, incluidas aquellas generadas por IA.

En una audiencia de supervisión del Senado la semana pasada, el presidente de la FTC, Andrew Ferguson, calificó la nueva ley como uno de los “mayores logros legislativos” del actual Congreso y de la administración del presidente Donald Trump, y dijo que la FTC se estaba preparando para una “aplicación sólida”.

A principios de este mes, el Departamento de Justicia obtuvo su primera condena exitosa bajo la nueva ley, cuando James Strahler, residente de Columbus, Ohio, de 37 años, se declaró culpable de utilizar desnudos falsos generados por IA como parte de una campaña de acoso dirigida a al menos seis mujeres.

Otra sección de la ley, que entrará en vigor en mayo, permitirá a las personas presentar avisos de «eliminación» en sitios web que publiquen o alberguen deepfakes sexuales. Las empresas tendrán 48 horas para eliminar el contenido o quedar sujetas a la investigación y aplicación de la ley por parte de la FTC.

El comisionado Mark Meador dijo en una conferencia celebrada el 30 de marzo en Washington DC que, si bien espera que “nunca tengan que aplicarla”, la FTC está tratando la aplicación de Take It Down como una máxima prioridad y “activamente está preparando todo lo que necesitamos” para hacer cumplir la disposición de eliminación.

Eso podría desencadenar rápidamente una de las primeras confrontaciones importantes con el sector tecnológico, especialmente empresas como xAI. Su herramienta Grok sigue utilizándose para crear y alojar imágenes deepfake no consensuadas de personas reales, incluso después del escándalo que enfrentó a principios de este año.

Después de su discurso, CyberScoop preguntó a Meador cómo se podrían aplicar las disposiciones de eliminación a la ola de nudificación masiva de sus usuarios por parte de Grok. Dijo que la ley especifica que la comisión no puede tomar medidas contra una empresa hasta que reciba quejas formales a partir de mayo.

“Esto se está implementando y luego, si no lo hacen [remove the content] recibiríamos las quejas y luego las perseguiríamos en ese momento», dijo Meador. «Entonces, tenemos que esperar y ver cómo… las empresas responden a las quejas y solicitudes que se hacen, y mi esperanza es que cada empresa que reciba una solicitud para retirar algo lo elimine inmediatamente».

La oficina de prensa de xAI no respondió a la solicitud de CyberScoop de comentar sobre sus preparativos para cumplir con la ley Take It Down.

Strahler, que aún no ha sido sentenciado, también admitió haber utilizado fotografías de niños de su vecindario para crear pornografía ultrafalsa. A plan estratégico publicado a principios de este mes señaló que la protección de los niños en línea es una “preocupación clave” para la comisión que merece más herramientas y recursos para los consumidores.

La comisión está “dedicada a explorar otras formas en que la FTC puede proteger a los niños y apoyar a las familias, incluso a través de su nueva autoridad bajo la Ley Take It Down”, afirma el plan.

Casey Waughn, abogado de privacidad y asociado principal de Armstrong Teasdale, dijo a CyberScoop que el enfoque de la comisión actual en la seguridad infantil en línea deja un amplio margen para que la ley se aplique de manera creativa.

«Hemos visto que hacer cumplir las violaciones de la tecnología y la privacidad relacionadas con los niños jóvenes es una prioridad, por lo que creo que es relativamente fácil convertir eso en algo de aplicación de la Ley Take it Down», dijo.

Waughn dijo que el retraso de un año para la aplicación de la disposición fue para que las plataformas pudieran prepararse, pero también dijo que la FTC podría hacer más para indicar públicamente a las empresas cómo es el cumplimiento legal, similar a los recursos que brindan en torno a las principales leyes de privacidad.

«Creo que lo que sería útil para todas las organizaciones… sería una guía que explicara qué constituye un esfuerzo de buena fe, por ejemplo, para intentar abordar una solicitud de eliminación», dijo Waughn.

Vivir en el paraíso de los estafadores

La FTC también está lidiando con el impacto de la IA en las estafas criminales dirigidas a estadounidenses en línea.

Ferguson dijo a los legisladores que la IA está «aumentando la sofisticación de los mecanismos reales mediante los cuales se llevan a cabo las estafas, pero también está facilitando que los estafadores elijan sus objetivos».

Pero los poderes de la FTC son limitados, ya que la Comisión Federal de Comunicaciones regula los proveedores de telefonía e Internet que transmiten la mayoría de las estafas. Ferguson también señaló que muchas estafas de centros de llamadas se realizan en el extranjero «donde no se inmutan ante el riesgo de una aplicación civil por parte de la FTC». Dijo que la comisión estaba abierta a autoridades legislativas adicionales para abordar el problema.

En la conferencia de marzo, Meador dijo que el engaño impulsado por la IA era algo en lo que la comisión piensa “diariamente” y está reduciendo la barrera de entrada para muchos esquemas criminales.

“El lugar más grande que hemos visto. [in] Para ser honesto, la forma en que algunas de estas herramientas de inteligencia artificial se utilizan para estafas de triple cargo”, dijo.

El año pasado, el FBI reportado que las estafas de clonación de voz que se hacían pasar por familiares angustiados habían estafado a los estadounidenses casi 900 millones de dólares, y que la tecnología se había utilizado para hacerse pasar por funcionarios de alto nivel de la administración Trump en conversaciones con empresas y líderes políticos.

Senadora Maggie Hassan escribió a cuatro empresas de clonación de voz con IA (ElevenLabs, LOVO, Speechify y VEED) preguntando qué políticas y programas tenían implementados para prevenir o disuadir el fraude habilitado por sus herramientas.

Pero Meador dijo que cuando se trata de afirmaciones engañosas, es particularmente difícil definir la credulidad en torno al uso de la IA. Muchas personas en línea ven y consumen muchos deepfakes, dijo, con el mismo tipo de “suspensión voluntaria de la incredulidad” que aportan a los efectos generados por computadora en las películas.

Como tal, la FTC probablemente tendrá que pronunciarse caso por caso en lugar de hacerlo mediante “brochazos generales”.

«Creo que veremos mucho de eso en el contexto de la IA, donde si sabes que algo no estaba destinado a ser real o auténtico, eso no es una preocupación», dijo. «La pregunta es entonces, ¿cuáles son esas situaciones en las que existe la expectativa de que se le muestre algo auténtico y, entre comillas, 'real' en lugar de ser generado por IA y hubo tergiversación u omisión material» al revelar eso?

Derek B. Johnson

Escrito por Derek B. Johnson

Derek B. Johnson es reportero de CyberScoop, donde su área incluye la ciberseguridad, las elecciones y el gobierno federal. Antes de eso, ha brindado una cobertura galardonada de noticias sobre ciberseguridad en los sectores público y privado para varias publicaciones desde 2017. Derek tiene una licenciatura en periodismo impreso de la Universidad de Hofstra en Nueva York y una maestría en políticas públicas de la Universidad George Mason en Virginia.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *