Los LLM están mejorando a la hora de desenmascarar a las personas en línea

¿Puede sobrevivir el anonimato en Internet en la era de la IA generativa?

Un reciente estudiar de ETH Zurich examinó cómo los modelos de lenguaje grandes pueden combinar información de Internet para identificar al ser humano detrás de las cuentas de varias plataformas en línea.

En el estudio, los agentes de LLM recibieron biografías anónimas basadas en perfiles reales de usuarios en HackerNews y Reddit, y se les pidió que buscaran en Internet más detalles en un esfuerzo por identificar a los usuarios. Si bien los resultados variaron, las herramientas pudieron reemplazar “en minutos lo que un investigador humano dedicado podría tardar horas”. Para un conjunto de datos de perfiles proporcionado por la empresa de inteligencia artificial Anthropic, que también participó en el estudio, el LLM pudo volver a identificar correctamente a 9 de los 125 candidatos, a menudo simplemente dándole un resumen del perfil y pidiendo que identificara al usuario.

Los modelos ajustados identificaron a más personas conectando la información existente a perfiles de redes sociales como LinkedIn.

«Demostramos que los LLM cambian fundamentalmente el panorama, permitiendo ataques de anonimización totalmente automatizados que operan en texto no estructurado a escala», concluye el estudio.

Daniel Paleka, estudiante de doctorado y uno de los varios autores del estudio, dijo a CyberScoop que los hallazgos indican que las herramientas de inteligencia artificial han facilitado sustancialmente la identificación de personas pseudoanónimas en línea.

«Si su seguridad operativa requiere que nadie pase horas o días investigando quién es usted, este modelo de seguridad ya no funciona», afirmó.

Una advertencia importante: las personas identificadas en el estudio no eran personas con un alto nivel de privacidad que buscaban limitar la difusión de su información personal en Internet. Por razones éticas, los investigadores no probaron sus métodos en carteles reales, anónimos o pseudoanónimos.

Ya se han utilizado herramientas de inteligencia artificial para desenmascarar a personas en línea. El mes pasado, Grok de xAI reveló el nombre legal y la dirección de una actriz de cine para adultos, a pesar de que la persona ha utilizado un nombre artístico desde 2012. La intérprete, dirigiéndose a grok directamente en X, dijo que su nombre legal solo se hizo público después de que la herramienta de IA la había «doxxed», y que desde entonces su información privada había «sido proliferada en todo Internet por otros raspadores de IA».

Si bien los analistas de inteligencia y aplicación de la ley han combinado durante mucho tiempo Internet y otros datos de código abierto para identificar a los usuarios, los LLM pueden hacerlo mucho más rápido y a un costo mucho menor. Las investigaciones que normalmente requerirían la contratación de un investigador privado o un bufete de abogados ahora se pueden realizar por una fracción del costo.

Por ejemplo, Paleka dijo que algunas tareas fundamentales, como rastrear la huella en línea de una persona para identificar cualquier signo de nacionalidad, ubicación o lugar de empleo, ahora pueden ser realizadas por LLM en “cinco segundos” y por unos centavos en costos de inferencia.

En un momento, Paleka dijo «Estoy muy preocupado» y describió las capacidades de desanonimización de los LLM como una «invasión de la privacidad a gran escala».

“En general, no creo que la IA deba limitar a sus usuarios… este es uno de esos casos en los que tu libertad termina cuando la libertad de la otra persona [begins]”, dijo.

El estudio indica que las herramientas de inteligencia artificial podrían remodelar la privacidad en línea, y que los gobiernos, las fuerzas del orden, la industria legal, los anunciantes, los estafadores y los ciberdelincuentes utilizan herramientas similares. En países represivos, podría presentar mayores desafíos a los disidentes, activistas de derechos humanos, periodistas y otras personas que dependen del anonimato o pseudoanonimato para operar de manera segura.

Jacob Hoffman-Andrews, tecnólogo senior de la Electronic Frontier Foundation, dijo que el estudio “indica definitivamente hasta qué punto publicar incluso una pequeña cantidad de información de identificación – en contextos donde no imaginas que alguien esté tratando de desenmascararte – podría resultar en que alguien vincule esa identidad de alguna manera” a través de LLM.

Publicar incluso detalles personales inofensivos, o en la misma cuenta durante un largo período de tiempo, puede facilitar que una herramienta de inteligencia artificial correlacione una cuenta con otras y, eventualmente, con su identidad real. Los modelos de lenguaje grandes destacan por resumir documentos e información. También «trabajan rápido y no se aburren», dijo Hoffman-Andrews, lo que los hace ideales para la investigación en Internet.

Paleka dijo que las empresas que brindan servicios de seguros o verificación de antecedentes probablemente tendrían un gran interés en la tecnología de anonimización, y Hoffman-Andrews dijo que era fácil imaginar que las empresas de inteligencia artificial intentaran convertir las capacidades en un producto independiente en algún momento.

Es probable que el impacto a largo plazo sea una Internet en la que permanecer en el anonimato sea, para bien o para mal, mucho más difícil.

«Creo que tiene mucho valor ser pseudoanónimo en Internet, y hay muchas personas que quieren mantener [that] por una amplia variedad de razones y no todos deberían necesitar ser expertos en cómo evitar un adversario realmente dedicado, como efectivamente lo es un LLM”, dijo Hoffman-Andrews.

Derek B. Johnson

Escrito por Derek B. Johnson

Derek B. Johnson es reportero de CyberScoop, donde su área incluye la ciberseguridad, las elecciones y el gobierno federal. Antes de eso, ha brindado una cobertura galardonada de noticias sobre ciberseguridad en los sectores público y privado para varias publicaciones desde 2017. Derek tiene una licenciatura en periodismo impreso de la Universidad de Hofstra en Nueva York y una maestría en políticas públicas de la Universidad George Mason en Virginia.