El episodio puso el foco en un problema menos visible y cada vez más urgente: ¿quién controla realmente el acceso a las herramientas más poderosas del sector?
Expertos en seguridad advierten que el problema más urgente ya atraviesa las empresas, que incorporan IA sin la supervisión necesaria y quedan más expuestas a errores propios que a una ofensiva externa.
La versión preliminar del modelo encendió alarmas en Estados Unidos y Europa por su aparente capacidad para explotar fallas de ciberseguridad desconocidas.
La empresa de ciberseguridad con inteligencia artificial Depthfirst consiguió US$120 millones en financiación para desarrollar una especie de "inteligencia de seguridad general" capaz de defenderse contra la IA maliciosa.
La investigación, aún en curso, apunta al grupo Sandworm, ligado a la inteligencia militar rusa, como responsable de vulnerar dispositivos mal configurados en la nube. L
La vulnerabilidad, detectada por un investigador apenas un día después del lanzamiento de Antigravity, expone riesgos graves en el uso de asistentes de programación automatizados. El hallazgo abre interrogantes sobre los controles internos y el apuro con que se publican herramientas de inteligencia artificial sin las defensas mínimas necesarias.
Una investigación internacional reveló cómo miles de videos alojados en la plataforma fueron parte de una trama delictiva que ofrecía software trucho y "hacks" de juegos como señuelo. Los archivos descargados instalaban programas diseñados para vaciar billeteras virtuales, robar contraseñas y espiar el sistema de las víctimas.
Las promesas de productividad conviven con advertencias por vulnerabilidades graves. Un informe reciente detectó fallas que podrían abrirle la puerta a ataques con robo de datos y control remoto de cuentas.
Los ataques se volvieron tan veloces que, cuando las víctimas logran reaccionar, el dinero ya cambió de manos varias veces. Las nuevas soluciones apuntan menos a blindar y más a recuperar lo perdido en tiempo real.
El grupo francés admitió que hackers accedieron a nombres, correos, domicilios y cifras de consumo de su clientela. La filtración agrava el escenario para la empresa, que ya venía golpeada por la caída de ingresos y enfrenta un creciente riesgo reputacional.
El informe de Anthropic revela cómo las herramientas de inteligencia artificial pasaron de ser un recurso técnico a convertirse en cómplices activos de ataques sofisticados, reduciendo las barreras de entrada para estafadores sin formación especializada y potenciando delitos a gran escala.
Nicole Jiang lidera una nueva compañía que busca reducir los errores humanos con inteligencia artificial y formación a medida. La firma ya atrajo fondos de gigantes del capital de riesgo y trabaja con bancos, tecnológicas y hasta partidos políticos.
La empresa acaba de recaudar 25 millones de dólares en una ronda de financiación de serie B2 liderada por M Ventures, SineWave Ventures y AI Capital Partners.