Desbandada de ejecutivos por el rumbo de las multinacionales de la inteligencia artificial

“No soy un ludita, hay algún valor en esta nueva tecnología. Simplemente, su motivación no es la correcta”. La referencia al ludismo suena descolocada en la carta de Scott Jenson, uno de los ingenieros de experiencia de usuario más veteranos y reputados de Silicon Valley. Con más de 35 años de experiencia en empresas del Valle, 15 de ellos en Google, pocos perfiles parecen más alejados de los de los artesanos ingleses que atacaban fábricas y quemaban máquinas de producción en serie.

Pese a su currículo, Jenson se ve obligado a excusarse en la misiva en la que comunica que ha puesto fin a su etapa en Google. Criticar el avance tecnológico en Silicon Valley son palabras mayores. Él lo ha hecho para alertar sobre la posición de su exempresa y otras como Apple (en la que también trabajó) en la carrera de la inteligencia artificial. “Su miedo es que no pueden permitirse que alguien llegue primero”, dice.

“El mes pasado dejé Google. Los 'proyectos de inteligencia artificial' en los que trabajaba no estaban bien motivados y se guiaban por el pánico de que, si contenían 'inteligencia artificial', serían geniales. Esta miopía NO [en mayúsculas en el original] es algo impulsado por una necesidad del usuario. Es el pánico a quedarse atrás”, insiste en una publicación en su perfil de LinkedIn este domingo.

“Esto mismo ocurrió hace 13 años con Google+ (yo también estuve allí en ese fiasco). Fue una reacción histérica similar, pero a Facebook”, rememora Jenson. Google+ fue el fallido proyecto de red social de la multinacional, cancelado en 2019 tras ocho años en los que no logró el interés de los usuarios. Es considerado uno de los grandes fracasos de la compañía junto a las Google Glass.

La salida de Jenson entre críticas a la estrategia de IA de su exempresa coincide con el adiós de varios ex ejecutivos de OpenAI, la compañía que está liderando esta carrera tecnológica. Todo su equipo de seguridad, el encargado de que sus productos respeten los derechos humanos y el desarrollo sostenible de la inteligencia artificial, ha sido disuelto en los últimos días.

Jan Leike, el directivo que codirigía el equipo, ha asegurado que OpenAI no se preocupa lo suficiente por las tareas que tenía asignadas su departamento. “He estado en desacuerdo con la dirección de OpenAI sobre las prioridades fundamentales de la empresa durante bastante tiempo, hasta que hemos llegado a un punto de ruptura”, ha revelado en X (anteriormente Twitter).

“Creo que deberíamos dedicar muchos más esfuerzos a prepararnos para las próximas generaciones de modelos, en seguridad, supervisión, preparación, protección, solidez frente a adversarios, alineación [con los derechos humanos], confidencialidad, impacto social y temas relacionados. Estos problemas son muy difíciles de resolver, y me preocupa que no estemos en vías de conseguirlo”, ha criticado.

OpenAI ha contestado por vía de su director ejecutivo, Sam Altman, que se ha mostrado “super agradecido” y “muy triste” por la marcha de Leike. “Tiene razón, nos queda mucho por hacer y estamos comprometidos a hacerlo”, ha declarado, adelantado que publicará un post con más información sobre el enfoque de las políticas de OpenAI en materia de seguridad.

No obstante, en el caso de OpenAI las discrepancias sobre la dirección de la compañía son evidentes. Apenas una semana antes que Leike el que abandonó la compañía fue Ilya Sutskever, uno de sus cofundadores. El que fuera su científico jefe fue el principal instigador del complot para despedir a Sam Altman como CEO de la compañía en noviembre de 2023. El movimiento fracasó por la rebelión de la plantilla, pero los motivos alegados por Sutskever entonces son similares a los expresados ahora por Leike.

La disolución del equipo de ética de OpenAI ha coincidido con la presentación de las nuevas capacidades de ChaGPT, que se han visto envueltas en la polémica. El motivo es que entre las nuevas herramientas del sistema está la posibilidad de comunicarse por vía oral con los usuarios: una de las voces ChatGPT puede usar se parece poderosamente a la de Scarlett Johansson, pero la actriz ha denunciado que rechazó prestar su voz a la inteligencia artificial de OpenAI.

Avisos sobre la falta de responsabilidad de las empresas

Contactada por este medio, Google no ha enviado ningún posicionamiento sobre las críticas de Scott Jenson. Sí ha hecho referencia a algunas de sus quejas, centradas en la nueva generación de asistentes que Google y las grandes empresas de IA están preparando —cuyo objetivo, alerta, es “encerrarte en su ecosistema con tanta fuerza que nunca puedas dejarlo—. ”Los asistentes de IA pueden tener importantes repercusiones sociales, tanto en términos de distribución de beneficios y cargas dentro de la sociedad como de alteración fundamental de las formas en que los seres humanos cooperan y se coordinan entre sí“, ha explicado el jefe de productos de inteligencia artificial de la multinacional.

“Los esfuerzos por comprender adecuadamente a los asistentes de IA y su impacto se topan con una laguna de evaluación cuando se estudian con los métodos existentes. El desarrollo y despliegue responsable de los asistentes de IA requiere más investigación, trabajo político y debate público”, continúa el mismo ejecutivo.

Pese a todo, no es la primera vez que Google se ve asociada con este tipo de denuncias. El caso más famoso es el de la tecnóloga etíope Timnit Gebru, que lideró el equipo de ética de la inteligencia artificial de Google hasta que la compañía la despidió en 2020 tras alertar de que esta no estaba haciendo lo suficiente por mitigar sus riesgos en un informe publicado en abierto. Más de 1.200 trabajadores de la multinacional y 1.500 investigadores independientes firmaron una carta condenando el despido.

“La tecnología que construimos tiene que ayudar a los humanos, pero parece que lo que estamos intentando es sacar a los humanos de la ecuación. Solo están interesadas en automatizar todo y ganar la mayor cantidad de dinero posible al menor costo posible”, denunciaba la experta en entrevista con elDiario.es.