Sídney. – El gigante global de la consultoría Deloitte acordó reembolsar al gobierno de Australia luego de admitir que herramientas de inteligencia artificial generativa provocaron graves errores en un informe de cumplimiento de bienestar social valorado en 440,000 dólares. El caso se ha convertido en uno de los episodios más emblemáticos de rendición de cuentas por IA en el sector público.
El Departamento de Empleo y Relaciones Laborales confirmó que Deloitte devolverá el último pago del contrato, después de reconocer que su informe de julio contenía citas académicas falsas, referencias judiciales inexistentes y nombres de profesores inventados, generadas por un modelo de lenguaje.
Gobierno exige transparencia en el uso de IA
La senadora laborista Deborah O’Neill, integrante de la investigación del Senado sobre integridad corporativa, criticó duramente la falta de transparencia de la firma.
“Deloitte tiene un problema de inteligencia humana”, ironizó O’Neill. “Quizás, en vez de una gran consultora, los compradores deberían suscribirse a ChatGPT”.
El incidente ha reavivado el debate sobre la gobernanza de la inteligencia artificial en contratos públicos, con llamados a verificar la autoría y la metodología de los informes oficiales. O’Neill subrayó que las instituciones deben “asegurarse de que la experiencia humana esté detrás de los análisis y no una máquina sin control”.
Un portavoz del departamento aclaró que los errores no alteraron las conclusiones del informe, pero insistió en la necesidad de precisión y trazabilidad en los documentos técnicos que sirven de base a decisiones gubernamentales.
Académico detecta citas fabricadas por IA
El académico Dr. Christopher Rudge, de la Universidad de Sídney, descubrió las falsificaciones en agosto, al detectar referencias inexistentes en derecho administrativo y bienestar social.
“Por un momento me sorprendió descubrir que mis colegas juristas habían escrito libros completos sobre temas que desconocía. Luego entendí que no existían”, explicó Rudge.
El informe original incluía una cita errónea a la jueza Jennifer Davies, vinculada al caso Robodebt, y al menos 12 trabajos académicos inventados. En su versión corregida, Deloitte reconoció haber utilizado Azure OpenAI GPT-4o para “cubrir lagunas de documentación”.
PUEDES LEER: Las Big Four Compiten Para Auditar a la IA
Rudge advirtió que la corrección no resuelve el problema de fondo:
“No se puede confiar en las recomendaciones cuando los cimientos del informe se basan en una metodología defectuosa y no revelada”.
Este caso plantea un precedente sobre la responsabilidad ética y profesional en el uso de la IA, y podría impulsar la adopción de reglas más estrictas para el uso de modelos generativos en la consultoría gubernamental, un sector que mueve miles de millones de dólares anuales en Australia.
¿Qué te pareció la noticia? Déjanos tu comentario más abajo
















