La inteligencia artificial generativa ha avanzado mucho, pero sigue teniendo un problema recurrente: las llamadas “alucinaciones”, que es cuando la IA inventa información en lugar de admitir que no sabe algo. Los que usamos estas herramientas a menudo sabemos que no podemos confiar ciegamente en ellas y siempre es necesario verificar los datos. Sin embargo, en Deloitte subestimaron esta necesidad y ahora deben devolver casi 300.000 dólares al gobierno australiano.
¿Qué pasó exactamente? El Departamento de Empleo del gobierno australiano encargó un informe a Deloitte, que se publicó en julio. Todo parecía ir bien hasta que un investigador de la Universidad de Sydney advirtió a los medios que el documento estaba plagado de referencias incorrectas. Entre otros errores, incluía una cita falsa de una sentencia judicial y mencionaba estudios que no existían. Debido a esto, la consultora retiró el informe original y lanzó una versión corregida.
La industria de la consultoría es un negocio multimillonario —se estima que en 2024 generará alrededor de 354.000 millones de dólares— y, por cómo funciona, es particularmente vulnerable a la “sustitución por IA”. La inteligencia artificial ya se usa mucho en el sector para analizar grandes cantidades de datos, generar informes, preparar presentaciones y manejar tareas administrativas. El caso de Deloitte es un claro ejemplo de que, aunque la IA puede ser una herramienta poderosa, la supervisión humana sigue siendo imprescindible para evitar errores graves. Seguramente veremos casos similares en el futuro.
En cuanto a las consecuencias, el gobierno australiano pagó casi 300.000 dólares a Deloitte por el informe, por lo que ahora la empresa deberá devolver parte de ese dinero. Sin embargo, Barbara Pocock, senadora del partido Verde, considera que deberían devolverlo completo. Según ella, Deloitte “hizo un uso indebido de la IA al citar erróneamente a un juez y usar referencias que no existen... Son errores por los que un estudiante universitario de primer año tendría serios problemas”.
Lo que más llamó la atención fue que el informe contenía al menos 20 errores, incluyendo la referencia a un libro que no existe, supuestamente escrito por alguien conocido del investigador que detectó los fallos. Pero la peor falta fue la cita inventada de un juez, algo que era fácil de detectar. A pesar de lo evidente, Deloitte no ha reconocido oficialmente que estas equivocaciones se deban al uso de IA y solo mencionaron que “el asunto se ha resuelto directamente con el cliente”.
Este caso pone de relieve la importancia del control humano en la era de la inteligencia artificial, especialmente en sectores donde la precisión es fundamental.



