{"id":410,"date":"2026-03-30T21:05:30","date_gmt":"2026-03-30T21:05:30","guid":{"rendered":"https:\/\/cybercolombia.co\/index.php\/2026\/03\/30\/openai-corrige-la-falla-de-filtracion-de-datos-de-chatgpt-y-la-vulnerabilidad-del-token-codex-github-cyberdefensa-mx\/"},"modified":"2026-03-30T21:05:30","modified_gmt":"2026-03-30T21:05:30","slug":"openai-corrige-la-falla-de-filtracion-de-datos-de-chatgpt-y-la-vulnerabilidad-del-token-codex-github-cyberdefensa-mx","status":"publish","type":"post","link":"https:\/\/cybercolombia.co\/index.php\/2026\/03\/30\/openai-corrige-la-falla-de-filtracion-de-datos-de-chatgpt-y-la-vulnerabilidad-del-token-codex-github-cyberdefensa-mx\/","title":{"rendered":"OpenAI corrige la falla de filtraci\u00f3n de datos de ChatGPT y la vulnerabilidad del token Codex GitHub \u2013 CYBERDEFENSA.MX"},"content":{"rendered":"<div id=\"articlebody\">\n<p>Una vulnerabilidad previamente desconocida en OpenAI ChatGPT permiti\u00f3 que se filtraran datos confidenciales de conversaciones sin el conocimiento o consentimiento del usuario, seg\u00fan nuevos hallazgos de Check Point.<\/p>\n<p>\u00abUn solo aviso malicioso podr\u00eda convertir una conversaci\u00f3n ordinaria en un canal de exfiltraci\u00f3n encubierto, filtrando mensajes de usuarios, archivos cargados y otro contenido sensible\u00bb, dijo la empresa de ciberseguridad. <a href=\"https:\/\/research.checkpoint.com\/2026\/chatgpt-data-leakage-via-a-hidden-outbound-channel-in-the-code-execution-runtime\/\" rel=\"noopener\" target=\"_blank\">dicho<\/a> en un informe publicado hoy. \u00abUn GPT con puerta trasera podr\u00eda abusar de la misma debilidad para obtener acceso a los datos del usuario sin el conocimiento o el consentimiento del usuario\u00bb.<\/p>\n<p>Tras una divulgaci\u00f3n responsable, OpenAI abord\u00f3 el problema el 20 de febrero de 2026. No hay evidencia de que el problema haya sido explotado alguna vez en un contexto malicioso.<\/p>\n<p>Si bien ChatGPT est\u00e1 construido con varias barreras de seguridad para evitar el intercambio o generaci\u00f3n de datos no autorizados. <a href=\"https:\/\/help.openai.com\/en\/articles\/8437071-data-analysis-with-chatgpt#h_f3588140cc\" rel=\"noopener\" target=\"_blank\">solicitudes de red salientes directas<\/a>la vulnerabilidad recientemente descubierta elude por completo estas salvaguardas al explotar un canal lateral que se origina en el tiempo de ejecuci\u00f3n de Linux utilizado por el agente de inteligencia artificial (IA) para la ejecuci\u00f3n de c\u00f3digo y el an\u00e1lisis de datos.<\/p>\n<p>Espec\u00edficamente, abusa de una ruta de comunicaci\u00f3n oculta basada en DNS como un \u00abmecanismo de transporte encubierto\u00bb al codificar informaci\u00f3n en solicitudes de DNS para sortear las barreras de seguridad visibles de la IA. Es m\u00e1s, la misma ruta de comunicaci\u00f3n oculta podr\u00eda usarse para establecer un acceso remoto al shell dentro del tiempo de ejecuci\u00f3n de Linux y lograr la ejecuci\u00f3n de comandos.<\/p>\n<p>En ausencia de cualquier advertencia o di\u00e1logo de aprobaci\u00f3n del usuario, la vulnerabilidad crea un punto ciego de seguridad, y el sistema de inteligencia artificial supone que el entorno estaba aislado.<\/p>\n<p>Como ejemplo ilustrativo, un atacante podr\u00eda convencer a un usuario de que pegue un mensaje malicioso haci\u00e9ndolo pasar como una forma de desbloquear capacidades premium de forma gratuita o mejorar el rendimiento de ChatGPT. La amenaza se magnifica cuando la t\u00e9cnica est\u00e1 integrada dentro de GPT personalizados, ya que la l\u00f3gica maliciosa podr\u00eda incorporarse en lugar de enga\u00f1ar al usuario para que pegue un mensaje especialmente dise\u00f1ado.<\/p>\n<div class=\"dog_two clear\">\n<div class=\"cf\"><a href=\"https:\/\/thehackernews.uk\/not-fast-enough-d\" rel=\"nofollow noopener sponsored\" target=\"_blank\"><img loading=\"lazy\" decoding=\"async\" class=\"lazyload\" alt=\"Ciberseguridad\" src=\"https:\/\/blogger.googleusercontent.com\/img\/b\/R29vZ2xl\/AVvXsEhlXM830ruQd2xT6M7JNeNRjaFa1onD12WjSCHihTFMTzbyfT9h-irPmXy_h3E1HGSs6sdv7FTmnyNVTM5kmSb7BuUtZe8gKoTQt99P1sSzRcqqXpOJP6eoAOhR3DGb6qHx9kOZ_HBZUMmVnsnd0DM7QfUp81bgzTvvgLww6oqB-EhnDfWXH5pWCYhAsyLs\/s728-e100\/tl-d.jpg\" width=\"729\" height=\"91\"\/><\/a><\/div>\n<\/div>\n<p>\u00abLo m\u00e1s importante es que, debido a que el modelo operaba bajo el supuesto de que este entorno no pod\u00eda enviar datos directamente, no reconoc\u00eda ese comportamiento como una transferencia de datos externa que requer\u00eda resistencia o mediaci\u00f3n del usuario\u00bb, explic\u00f3 Check Point. \u00abComo resultado, la filtraci\u00f3n no gener\u00f3 advertencias sobre los datos que sal\u00edan de la conversaci\u00f3n, no requiri\u00f3 confirmaci\u00f3n expl\u00edcita del usuario y permaneci\u00f3 en gran medida invisible desde la perspectiva del usuario\u00bb.<\/p>\n<p>Con herramientas como ChatGPT cada vez m\u00e1s integradas en entornos empresariales y usuarios cargando informaci\u00f3n muy personal, vulnerabilidades como estas subrayan la necesidad de que las organizaciones implementen su propia capa de seguridad para contrarrestar las inyecciones r\u00e1pidas y otros comportamientos inesperados en los sistemas de IA.<\/p>\n<p>\u00abEsta investigaci\u00f3n refuerza una dura verdad para la era de la IA: no asuma que las herramientas de IA son seguras por defecto\u00bb, dijo Eli Smadja, jefe de investigaci\u00f3n de Check Point Research, en un comunicado compartido con The Hacker News.<\/p>\n<div class=\"separator\" style=\"clear: both;\"><a href=\"https:\/\/blogger.googleusercontent.com\/img\/b\/R29vZ2xl\/AVvXsEilviz6kHl6VNWJEFo3Msr9Se-e_Lj5sF2tv8RQt_V6Ee-4NwheqdsWoQslwVNVa4shyOO0mmbNRJ3k_Ycx4tc0YpJ0HlvRnocSagvQ2KOo4J6hq9Dvgqp_UyrWEqX977VbWaWCzatZiLdNDqhac34tqAGVKsCmH4WNU5kBo7n3NEbujlwQaH95Hg4Ki5D9\/s1700-e365\/openai-a.jpg\" style=\"display: block;  text-align: center; clear: left; float: left;\"><img decoding=\"async\" src=\"https:\/\/blogger.googleusercontent.com\/img\/b\/R29vZ2xl\/AVvXsEilviz6kHl6VNWJEFo3Msr9Se-e_Lj5sF2tv8RQt_V6Ee-4NwheqdsWoQslwVNVa4shyOO0mmbNRJ3k_Ycx4tc0YpJ0HlvRnocSagvQ2KOo4J6hq9Dvgqp_UyrWEqX977VbWaWCzatZiLdNDqhac34tqAGVKsCmH4WNU5kBo7n3NEbujlwQaH95Hg4Ki5D9\/s1700-e365\/openai-a.jpg\" alt=\"\" border=\"0\" data-original-height=\"394\" data-original-width=\"1093\"\/><\/a><\/div>\n<p>\u00abA medida que las plataformas de IA evolucionan hacia entornos inform\u00e1ticos completos que manejan nuestros datos m\u00e1s confidenciales, los controles de seguridad nativos ya no son suficientes por s\u00ed solos. Las organizaciones necesitan visibilidad independiente y protecci\u00f3n en capas entre ellas y los proveedores de IA. As\u00ed es como avanzamos de manera segura: repensando la arquitectura de seguridad para la IA, sin reaccionar al siguiente incidente\u00bb.<\/p>\n<p>El desarrollo se produce cuando se ha observado que los actores de amenazas publican extensiones de navegador web (o actualizan las existentes) que participan en la dudosa pr\u00e1ctica de caza furtiva r\u00e1pida para desviar silenciosamente conversaciones de chatbot de IA sin el consentimiento del usuario, destacando c\u00f3mo complementos aparentemente inofensivos podr\u00edan convertirse en un canal para la filtraci\u00f3n de datos.<\/p>\n<p>\u00abCasi no hace falta decir que estos complementos abren las puertas a varios riesgos, incluido el robo de identidad, campa\u00f1as de phishing dirigidas y la venta de datos confidenciales en foros clandestinos\u00bb, dijo el investigador de Expel, Ben Nahorney. <a href=\"https:\/\/expel.com\/blog\/on-the-radar-chatgpt-stealer\/\" rel=\"noopener\" target=\"_blank\">dicho<\/a>. \u00abEn el caso de organizaciones donde los empleados pueden haber instalado estas extensiones sin saberlo, es posible que hayan expuesto propiedad intelectual, datos de clientes u otra informaci\u00f3n confidencial\u00bb.<\/p>\n<h3>La vulnerabilidad de inyecci\u00f3n de comandos en OpenAI Codex lleva a un compromiso del token de GitHub<\/h3>\n<p>Los hallazgos tambi\u00e9n coinciden con el descubrimiento de una vulnerabilidad cr\u00edtica de inyecci\u00f3n de comandos en OpenAI. <a href=\"https:\/\/openai.com\/index\/introducing-codex\/\" rel=\"noopener\" target=\"_blank\">C\u00f3dice<\/a>un agente de ingenier\u00eda de software basado en la nube, que podr\u00eda haber sido aprovechado para robar datos de credenciales de GitHub y, en \u00faltima instancia, comprometer a varios usuarios que interact\u00faan con un repositorio compartido.<\/p>\n<div class=\"separator\" style=\"clear: both;\"><a href=\"https:\/\/blogger.googleusercontent.com\/img\/b\/R29vZ2xl\/AVvXsEjuogJLOOhxciWWEIpCr524Pf2QBdfPf10tRoAqmc-_39hq3MvtqG4l7zQOdxJLdXKH9eOAECLhM-bBTDEu_kzRt9gUOcQWHK4sGnmDmYYVfHmv5l-TsYQvqBlZFEsS83sEFlOWy0yoVUGON6sb7vtAV7Jd1r7adYLFFhyphenhyphenB28J1V0UU4RwcgjOIBnZZ4unL\/s1700-e365\/OpenAI-Vulnerability.png\" style=\"clear: left; display: block; float: left;  text-align: center;\"><img decoding=\"async\" src=\"https:\/\/blogger.googleusercontent.com\/img\/b\/R29vZ2xl\/AVvXsEjuogJLOOhxciWWEIpCr524Pf2QBdfPf10tRoAqmc-_39hq3MvtqG4l7zQOdxJLdXKH9eOAECLhM-bBTDEu_kzRt9gUOcQWHK4sGnmDmYYVfHmv5l-TsYQvqBlZFEsS83sEFlOWy0yoVUGON6sb7vtAV7Jd1r7adYLFFhyphenhyphenB28J1V0UU4RwcgjOIBnZZ4unL\/s1700-e365\/OpenAI-Vulnerability.png\" alt=\"\" border=\"0\" data-original-height=\"1500\" data-original-width=\"2000\"\/><\/a><\/div>\n<p>\u00abLa vulnerabilidad existe dentro de la solicitud HTTP de creaci\u00f3n de tareas, que permite a un atacante contrabandear comandos arbitrarios a trav\u00e9s del par\u00e1metro de nombre de rama de GitHub\u00bb, dijo el investigador de BeyondTrust Phantom Labs, Tyler Jespersen. <a href=\"https:\/\/www.beyondtrust.com\/blog\/entry\/openai-codex-command-injection-vulnerability-github-token\" rel=\"noopener\" target=\"_blank\">dicho<\/a> en un informe compartido con The Hacker News. \u00abEsto puede resultar en el robo del token de acceso de usuario de GitHub de la v\u00edctima, el mismo token que Codex usa para autenticarse con GitHub\u00bb.<\/p>\n<p>El problema, seg\u00fan BeyondTrust, se debe a una limpieza inadecuada de la entrada al procesar nombres de ramas de GitHub durante la ejecuci\u00f3n de tareas en la nube. Debido a esta insuficiencia, un atacante podr\u00eda inyectar comandos arbitrarios a trav\u00e9s del par\u00e1metro de nombre de rama en una solicitud HTTPS POST a la API del Codex backend, ejecutar cargas \u00fatiles maliciosas dentro del contenedor del agente y recuperar tokens de autenticaci\u00f3n confidenciales.<\/p>\n<div class=\"dog_two clear\">\n<div class=\"cf\"><a href=\"https:\/\/thehackernews.uk\/attack-stories-xmcyber-d\" rel=\"nofollow noopener sponsored\" target=\"_blank\"><img loading=\"lazy\" decoding=\"async\" class=\"lazyload\" alt=\"Ciberseguridad\" src=\"https:\/\/blogger.googleusercontent.com\/img\/b\/R29vZ2xl\/AVvXsEi10JhdzuuQKeU6vIJGPRAeffB5FYR9ajRiOfpp6hmgsP5GCmDcMdEKpiEEUZjkua9Y9R__l-63FpqNwAFgZzIdNR5lPIJcvvyBKIAu_nN7Z1TJoVUXrEvfQcWlJ0QhqMshOARvU3_B94NJNDbp-SiKAVfPFPibh_jcBpTfSPmCFxxJkPqL44kIFXL1WGEo\/s728-e100\/fs-d.png\" width=\"729\" height=\"91\"\/><\/a><\/div>\n<\/div>\n<p>\u00abEsto otorg\u00f3 movimiento lateral y acceso de lectura\/escritura a todo el c\u00f3digo base de la v\u00edctima\u00bb, dijo Kinnaird McQuade, arquitecto jefe de seguridad de BeyondTrust. <a href=\"https:\/\/x.com\/kmcquade3\/status\/2038641472417993072\" rel=\"noopener\" target=\"_blank\">dicho<\/a> en una publicaci\u00f3n en X. OpenAI lo parch\u00f3 a partir del 5 de febrero de 2026, despu\u00e9s de que se informara el 16 de diciembre de 2025. La vulnerabilidad afecta al sitio web ChatGPT, Codex CLI, Codex SDK y la extensi\u00f3n Codex IDE.<\/p>\n<p>El proveedor de ciberseguridad dijo que la t\u00e9cnica de inyecci\u00f3n de comandos de rama tambi\u00e9n podr\u00eda extenderse para robar tokens de acceso de instalaci\u00f3n de GitHub y ejecutar comandos bash en el contenedor de revisi\u00f3n de c\u00f3digo cada vez que se haga referencia a @codex en GitHub. <\/p>\n<p>\u00abCon la rama maliciosa configurada, hicimos referencia a Codex en un comentario sobre una solicitud de extracci\u00f3n (PR)\u00bb, explic\u00f3. \u00abCodex luego inici\u00f3 un contenedor de revisi\u00f3n de c\u00f3digo y cre\u00f3 una tarea en nuestro repositorio y sucursal, ejecutando nuestra carga \u00fatil y reenviando la respuesta a nuestro servidor externo\u00bb.<\/p>\n<p>La investigaci\u00f3n tambi\u00e9n destaca un riesgo creciente de que el acceso privilegiado otorgado a los agentes de codificaci\u00f3n de IA pueda usarse como arma para proporcionar una \u00abruta de ataque escalable\u00bb a los sistemas empresariales sin activar los controles de seguridad tradicionales.<\/p>\n<p>\u00abA medida que los agentes de IA se integran m\u00e1s profundamente en los flujos de trabajo de los desarrolladores, la seguridad de los contenedores en los que se ejecutan (y la entrada que consumen) debe tratarse con el mismo rigor que cualquier otro l\u00edmite de seguridad de la aplicaci\u00f3n\u00bb, dijo BeyondTrust. \u00abLa superficie de ataque se est\u00e1 expandiendo y la seguridad de estos entornos debe seguir el ritmo\u00bb.<\/p>\n<\/div>\n","protected":false},"excerpt":{"rendered":"<p>Una vulnerabilidad previamente desconocida en OpenAI ChatGPT permiti\u00f3 que se filtraran datos confidenciales de conversaciones sin el conocimiento o consentimiento del usuario, seg\u00fan nuevos hallazgos de Check Point. \u00abUn solo aviso malicioso podr\u00eda convertir una conversaci\u00f3n ordinaria en un canal de exfiltraci\u00f3n encubierto, filtrando mensajes de usuarios, archivos cargados y otro contenido sensible\u00bb, dijo la [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":108,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[25,5],"tags":[126,601,744,24,627,70,263,888,931,600,1417,313],"class_list":["post-410","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-noticias","category-trending","tag-chatgpt","tag-codex","tag-corrige","tag-cyberdefensa-mx","tag-datos","tag-del","tag-falla","tag-filtracion","tag-github","tag-openai","tag-token","tag-vulnerabilidad"],"_links":{"self":[{"href":"https:\/\/cybercolombia.co\/index.php\/wp-json\/wp\/v2\/posts\/410","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/cybercolombia.co\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/cybercolombia.co\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/cybercolombia.co\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/cybercolombia.co\/index.php\/wp-json\/wp\/v2\/comments?post=410"}],"version-history":[{"count":0,"href":"https:\/\/cybercolombia.co\/index.php\/wp-json\/wp\/v2\/posts\/410\/revisions"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/cybercolombia.co\/index.php\/wp-json\/wp\/v2\/media\/108"}],"wp:attachment":[{"href":"https:\/\/cybercolombia.co\/index.php\/wp-json\/wp\/v2\/media?parent=410"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/cybercolombia.co\/index.php\/wp-json\/wp\/v2\/categories?post=410"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/cybercolombia.co\/index.php\/wp-json\/wp\/v2\/tags?post=410"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}