Ética

Más de 600 empleados de Google firman una carta pidiendo a Pichai que rechace el contrato con el Pentágono

Investigadores de DeepMind, directivos incluidos, piden a Pichai que rechace usar Gemini en operaciones militares clasificadas. La historia se repite ocho años después del escándalo del Proyecto Maven.

Gonzalo
Google

En 2018, miles de empleados de Google firmaron una petición contra el Proyecto Maven, que usaba IA para mejorar la precisión de ataques con drones militares. Varios ingenieros dimitieron. Google anunció que no renovaría el contrato. La empresa cedió ante sus propios trabajadores.

Ocho años después, la historia se repite. Con más signatarios, con cargos más altos, y con una pregunta más difícil de responder.

La carta y lo que pide

Más de 560 empleados de Google han firmado una carta abierta al CEO Sundar Pichai pidiéndole que rechace permitir que el gobierno estadounidense use la tecnología de inteligencia artificial de la empresa para operaciones militares clasificadas. «Queremos que la IA beneficie a la humanidad, no que se use de formas inhumanas o extremadamente dañinas», dice la carta enviada a Pichai el lunes. «Esto incluye armas autónomas letales y vigilancia masiva, pero va más allá.»

La carta fue coordinada por empleados de DeepMind, el laboratorio de IA de Google. Dos quintos de los firmantes trabajan en la división de IA, una proporción similar en la unidad Cloud y el resto distribuido por Alphabet. Más de 18 empleados de alta dirección, incluyendo directores principales, directores y vicepresidentes, han firmado.

El argumento central no es político. Es técnico y tiene una lógica difícil de rebatir. «Las cargas de trabajo clasificadas son por definición opacas», dijo un empleado organizador que pidió no ser identificado. «Ahora mismo no hay forma de garantizar que nuestras herramientas no se aprovechen para causar daños terribles o erosionar las libertades civiles fuera del escrutinio público. Estamos hablando de cosas como perfilar individuos o atacar a civiles inocentes.» Windows Latest

El contrato que lo desencadenó

La carta hace referencia directa a las «negociaciones en curso» entre Google y el Departamento de Defensa sobre el posible uso de sus modelos Gemini en entornos clasificados. Según los informes que circulan desde semanas antes del lanzamiento de la carta, si el acuerdo se cerrara, el Departamento de Defensa podría usar los sistemas de IA para todos los usos legales. Slack

Esa última cláusula es exactamente la que preocupa a los firmantes. «Todos los usos legales» en el contexto de operaciones militares clasificadas es una categoría extraordinariamente amplia, y por definición no sujeta a revisión pública.

El contexto institucional añade presión. Anthropic rechazó esta semana una propuesta del Departamento de Defensa que incluía el uso de sus modelos para vigilancia masiva doméstica y armas autónomas. Ese rechazo, que ha generado su propio capítulo legal con el Pentágono incluyendo a Anthropic en una lista negra de riesgo para la cadena de suministro, es el telón de fondo inmediato de la carta de los empleados de Google.

Quién firma y lo que eso significa

La distribución de firmantes es lo que hace esta carta cualitativamente distinta de una petición de base. Más de 18 personas de alta dirección han firmado, incluyendo directores, directores senior y vicepresidentes. El científico jefe de DeepMind, Jeff Dean, ha sido el ejecutivo más vocal en el tema hasta ahora: en febrero publicó en X que «la vigilancia masiva viola la Cuarta Enmienda y tiene un efecto inhibidor sobre la libertad de expresión», y añadió que seguía respaldando el compromiso de 2018 de prohibir armas autónomas letales.

Que directivos de alto rango firmen una carta pública contra una decisión estratégica de su empresa no es un gesto menor. Implica que están dispuestos a asociar su nombre y su cargo a una posición que contradice la dirección que la empresa parece estar tomando. En el entorno corporativo de Silicon Valley, eso tiene un coste real.

La historia que no termina de aprenderse

Google ha afrontado protestas anteriores contra sus vínculos militares. En 2018, varios empleados dimitieron y miles firmaron una petición contra el Proyecto Maven, que usaba IA para mejorar los ataques con drones. Google cedió y no renovó el contrato.

Lo que ha cambiado desde 2018 es la magnitud de lo que está en juego para ambas partes. En 2018, Google podía permitirse rechazar un contrato militar sin consecuencias financieras significativas. En 2026, los contratos con el gobierno federal estadounidense y el Departamento de Defensa representan una fuente de ingresos creciente en un mercado cloud cada vez más competitivo. Después de que Anthropic rechazara permitir al Departamento de Defensa usar su IA para vigilancia masiva doméstica y armas autónomas, Google firmó un nuevo contrato con el departamento. a2a mcp Ese movimiento es exactamente lo que los firmantes de la carta de esta semana quieren revertir.

La carta concluye con una frase que invoca el precedente de 2018 como argumento: «Sabemos por nuestra propia historia que nuestros líderes pueden tomar las decisiones correctas, para nosotros y para el mundo, cuando las apuestas son altas.»

Si Pichai cedió entonces, la pregunta es si puede permitirse ceder ahora. Y si no puede, la pregunta que sigue es si los empleados que firmaron estarán dispuestos a sacar las mismas conclusiones que sus predecesores en 2018.

Fuentes

EtiquetasGoogleGoogle DeepMindÉtica IAGeminiPentágono

Seguir leyendo