Entrada

Deloitte se lanza de lleno en la inteligencia artificial — a pesar de tener que devolver una cantidad significativa por el uso de la inteligencia artificial.

Deloitte

Créditos de la imagen: Roberto Machado Noa / Contribuyente / Getty Images

La firma de servicios profesionales y consultoría Deloitte anunció un acuerdo histórico de inteligencia artificial (IA) con Anthropic el mismo día en que se reveló que la empresa devolvería un informe de gobierno contratado que contenía información inexacta generada por IA.

El resultado: el acuerdo de Deloitte con Anthropic es una referencia a su compromiso con la IA, incluso mientras se enfrenta a los desafíos tecnológicos. Y Deloitte no está sola en este desafío.

El momento de este anuncio es interesante, incluso cómico. El mismo día en que Deloitte destacó su uso creciente de IA, el Departamento de Empleo y Relaciones Laborales de Australia anunció que la empresa de consultoría tendría que devolver el informe que realizó para el departamento, que incluía alucinaciones de IA, según informó el Financial Times.

El departamento había encargado una revisión de garantía independiente de A$439,000 a Deloitte, que se publicó a principios de este año. El Australian Financial Review informó en agosto que la revisión contenía varios errores, incluidos múltiples citas a informes académicos inexistentes. Una versión corregida de la revisión se subió al sitio web del departamento la semana pasada. Deloitte reembolsará el último pago de su contrato gubernamental, informó el FT.

TechCrunch se puso en contacto con Deloitte para obtener comentarios y actualizará el artículo si la empresa responde.

Deloitte anunció el lunes que implementará el chatbot Claude de Anthropic en sus casi 500,000 empleados a nivel mundial. Deloitte y Anthropic, que formaron una alianza el año pasado, planean crear productos y características de cumplimiento para industrias reguladas como servicios financieros, salud y servicios públicos, según un post del blog de Anthropic. Deloitte también planea crear diferentes “personas” de agentes de IA para representar los diferentes departamentos de la empresa, incluidos contables y desarrolladores de software, según un informe de CNBC.

“Deloitte realiza esta inversión significativa en la plataforma de IA de Anthropic porque nuestra aproximación a la IA responsable es muy alineada, y juntos podemos transformar cómo operan las empresas en la próxima década. Claude sigue siendo una opción líder para muchos clientes y nuestra propia transformación de IA”, escribió Ranjit Bawa, líder global de tecnología y ecosistemas y alianzas en Deloitte, en el post del blog.

Los términos financieros del acuerdo — que Anthropic se refirió como una alianza — no se revelaron.

Este acuerdo no solo es la mayor implementación empresarial de Anthropic hasta la fecha, sino que también ilustra cómo la IA se está integrando en cada aspecto de la vida moderna, desde las herramientas utilizadas en el trabajo hasta las consultas casuales en el hogar.

Deloitte no es la única empresa, ni la única persona, que ha sido sorprendida utilizando información inexacta generada por IA en los últimos meses.

En mayo, el periódico Chicago Sun-Times tuvo que admitir que había publicado una lista de libros generada por IA para su lista de lectura de verano después de que los lectores descubrieran que algunos de los títulos de los libros eran alucinaciones, aunque los autores eran reales. Un documento interno visto por Business Insider mostró que la herramienta de productividad de Amazon, Q Business, tuvo dificultades con la precisión en su primer año.

Anthropic también ha sido criticado por utilizar información alucinada por IA de su propio chatbot Claude. El abogado de la empresa de investigación de IA tuvo que disculparse después de que la empresa utilizara una cita generada por IA en un litigio con editoriales musicales a principios de este año.

Esta entrada está licenciada bajo CC BY 4.0 por el autor.