Anthropic Rechaza Uso Militar de IA y Claude #1 en App Store
Anthropic fue vetada por el Pentágono. Pero Claude se convirtió en la aplicación número 1 en la App Store mientras los usuarios se unen en apoyo a la empresa.
Las líneas rojas de Anthropic
Anthropic estableció líneas rojas claras contra el uso de su IA para vigilancia masiva y armas autónomas letales. La empresa rechazó un contrato con el Departamento de Defensa precisamente por estas preocupaciones éticas.
Apoyo de usuarios
Mientras OpenAI aseguraba un acuerdo con el Pentágono, lo que generó controversy, algunos usuarios beralih a Claude como muestra de apoyo. La campaña “Cancel ChatGPT” alcanzó 1.5 millones de usuarios.
Razones del rechazo
Según Anthropic: “Primero, permitir que los modelos actuales se usen de esta manera pondría en peligro a los soldados y civiles estadounidenses. Segundo, creemos que la vigilancia doméstica masiva de estadounidenses constituye una violación de los derechos fundamentales”.
Fuente: Axios



Publicar comentario