La Trampa que Anthropic se Construyó a Sí Misma
Anthropic, la empresa de inteligencia artificial fundada en 2021 por Dario Amodei, se encuentra atrapada en una paradoja devastadora: una compañía que fue celebraday liderada como pionera en seguridad y ética de IA ahora enfrenta una crisis existencial.
El inicio del conflicto
El viernes por la tarde, el presidente Donald Trump publicó en Truth Social ordenando a todas las agencias federales “cesar inmediatamente” el uso de tecnología de Anthropic. El secretario de Defensa, Pete Hegseth, invocó una ley de seguridad nacional para incluir a la empresa en la lista negra, impidiéndole hacer negocios con el Pentágono, junto con sus socios, contratistas y proveedores.
La razón detrás de esta decisión: Amodei se negó a permitir que la tecnología de Anthropic fuera utilizada para vigilancia masiva de ciudadanos estadounidenses o para drones armados autónomos que pudieran seleccionar y eliminar objetivos sin intervención humana.
Las consecuencias
Anthropic está a punto de perder un contrato valorado en hasta 200 millones de dólares y podría ser vetada para trabajar con otros contratistas de defensa. La empresa ha anunciado que impugnará la decisión del Pentágono en los tribunales.
La trampa que Anthropic se construyó
Max Tegmark, físico del MIT y fundador del Future of Life Institute, ha pasado la última década advertiendo que la carrera por construir sistemas de IA cada vez más poderosos está superando la capacidad del mundo para regularlos.
La visión de Tegmark sobre la crisis de Anthropic no tiene piedad: la empresa, al igual que sus rivales, ha sembrado las semillas de su propia situación. El argumento de Tegmark no comienza con el Pentágono, sino con una decisión tomada años atrás: la elección, compartida en toda la industria, de resistir la regulación.
“Anthropic, OpenAI, Google DeepMind y xAI han hablado mucho sobre cómo les importa la seguridad. Ninguna de ellas ha salido a apoyar la regulación vinculante de seguridad de la manera en que lo hacemos en otras industrias. Y las cuatro empresas ahora han roto sus propias promesas”, declaró Tegmark.
La ironía de la autorregulación
Primero fue Google con su lema “Don’t be Evil”. Luego lo eliminaron. Después eliminaron otro compromiso más largo que básicamente decía que prometían no hacer daño con IA. Lo eliminaron para vender IA para vigilancia y armas.
OpenAI acaba de eliminar la palabra “seguridad” de su declaración de misión. xAI cerró todo su equipo de seguridad. Y ahora Anthropic, a principios de esta semana, eliminó su compromiso de seguridad más importante: la promesa de no lanzar sistemas de IA poderosos hasta estar seguros de que no causarían daño.
Ahora, en ausencia de reglas, no hay mucho que proteja a estos jugadores. La industria de la IA tiene menos regulación en Estados Unidos que los sandwiches: si abres un restaurante y el inspector encuentra 15 ratas en la cocina, no te permitirá vender sandwiches hasta que lo resuelvas. Pero si dices “No te preocupes, voy a vender novias de IA para niños de 11 años”, el inspector tiene que decir “Adelante, solo no vendas sandwiches”.
Fuente: TechCrunch



Publicar comentario