Por qué Google ha abandonado su tablero de ética de IA una semana después de su lanzamiento
La protesta del personal ante el controvertido miembro de la junta lleva a un cambio de sentido en la empresa

Sundar Pichai, director ejecutivo de Google
Justin Sullivan / Getty Images
Google ha eliminado su tablero de ética de inteligencia artificial (IA) solo una semana después de lanzarlo luego de una reacción violenta de los empleados.
El Consejo Asesor Externo de Tecnología Avanzada (ATEAC), una junta diseñada para garantizar el desarrollo responsable de la IA en el gigante de las búsquedas, habría estado formada por ocho miembros que debían reunirse cuatro veces al año para evaluar las preocupaciones sobre los productos de IA de Google, dice Vox .
Pero casi 2.500 empleados de la firma firmaron una petición pidiendo la destitución de la concejal Kay Coles James, presidenta de Heritage Foundation, un grupo de expertos conservador, por los comentarios que hizo sobre las personas trans y el escepticismo de su organización sobre el cambio climático, el sitio de noticias. dice.
Google está dejando en claro que su versión de la ética valora la proximidad al poder sobre el bienestar de las personas trans, otras personas LGBTQ y los inmigrantes, según la petición. Tal posición contraviene directamente los valores declarados por Google.
La petición continúa diciendo que los daños potenciales de la IA no se distribuyen de manera uniforme y siguen patrones históricos de discriminación y exclusión. Afirma que hay casos en los que AI no ha reconocido a las personas trans, no ha reconocido voces más femeninas ni ha visto mujeres de color.
Google dijo inicialmente que ATEAC aportaría diversas perspectivas, El guardián informes. Junto con James, la junta incluía a expertos en matemáticas, un investigador de privacidad, el director ejecutivo de una empresa de drones y un exdiplomático estadounidense.
El director de la empresa, Sundar Pichai, anunció planes para establecer el consejo de ética el año pasado, después de que se supo que la empresa de tecnología estaba participando en un proyecto de drones del Pentágono que utilizaba datos de la investigación de inteligencia artificial de Google. El borde informes.
Google decidió dejar de trabajar en el controvertido proyecto de drones el verano pasado y se comprometió a no trabajar nunca en proyectos en los que la IA podría usarse como arma o que violaran las normas aceptadas internacionalmente, agrega el sitio de tecnología.
Un portavoz de la empresa dijo al sitio web que ha quedado claro que en el entorno actual, ATEAC no puede funcionar como queríamos.
Terminaremos el consejo y volveremos a la mesa de dibujo, agregó el portavoz. Seguiremos siendo responsables en nuestro trabajo sobre los problemas importantes que plantea la IA y encontraremos diferentes formas de obtener opiniones externas sobre estos temas.