Las empresas tecnológicas no dejan de hablar sobre la inteligencia artificial general (AGI), aunque parece que su llegada aún está lejos de lo que se promociona. Esta IA general sería capaz de superar al ser humano en todas las áreas del conocimiento. Aunque no está claro si será así, ya hay un campo donde la inteligencia artificial está ganando terreno: el hacking.
Un grupo de investigadores de la Universidad de Stanford realizó un experimento que hemos conocido gracias a un reportaje del Wall Street Journal. Crearon un bot de hacking llamado Artemis, diseñado para escanear redes y detectar posibles fallos o vulnerabilidades que puedan ser explotadas.
Artemis fue probado en la red de ingeniería de la propia universidad y se enfrentó a diez pentesters, es decir, hackers profesionales encargados de simular ataques para encontrar y corregir vulnerabilidades. El bot tenía un “interruptor de emergencia” para apagarlo si la situación se complicaba, y los hackers humanos tenían la instrucción de poner a prueba el sistema sin llegar a entrar realmente.
Los resultados sorprendieron a los investigadores: Artemis superó a nueve de los diez pentesters. Encontró fallos mucho más rápido y, además, a un costo mucho menor. Mientras que un pentester cobra entre 2.000 y 2.500 dólares al día, Artemis “trabajaba” a un costo de solo 60 dólares la hora.
Sin embargo, Artemis no fue perfecto. Alrededor del 18% de las vulnerabilidades que reportó fueron falsos positivos, y pasó por alto un fallo evidente que los humanos detectaron a la primera. Por otro lado, encontró un bug que ningún humano había visto, ubicado en una web que no funcionaba en los navegadores comunes como Chrome o Firefox, que son los que usan los hackers. Artemis no usa navegadores, sino un programa que pudo leer esa página y descubrir el error.
En el ámbito del hacking, la inteligencia artificial ya se usa desde hace tiempo para crear malware más eficiente. Recientemente, Anthropic halló que un grupo de hackers chinos estaba usando la IA Claude Code para llevar a cabo una amplia campaña de espionaje, con esta IA gestionando todo el ciclo del ataque, no solo una parte.
Aunque la IA facilita la creación de ataques, también puede ser una herramienta de protección. Investigaciones como la de Stanford demuestran que puede usarse para detectar vulnerabilidades y ayudar a corregirlas. Sin embargo, esto plantea una pregunta sobre el futuro de profesionales como los pentesters, que podrían verse desplazados si la IA hace su trabajo de manera más rápida y económica.



