Gobernanza de la IA: un llamado bipartidista al control

16

Un nuevo marco para el desarrollo responsable de la IA, denominado “Declaración Prohumana”, surgió de una coalición de expertos, ex funcionarios y figuras públicas mientras Washington lucha por definir reglas para la inteligencia artificial. Esta iniciativa llega en un momento crítico, resaltado por las recientes tensiones entre el Pentágono y empresas de inteligencia artificial como Anthropic y OpenAI, lo que expone la falta de supervisión efectiva en un campo que avanza rápidamente.

La creciente demanda de regulación de la IA

Encuestas recientes indican una abrumadora oposición pública (95% de los estadounidenses) a una carrera desenfrenada hacia la superinteligencia. This sentiment underscores the urgency of the declaration, which warns humanity stands at a crossroads: one path leads to human displacement by unchecked AI, while the other envisions AI as a tool to amplify human potential. El argumento central es que sin límites claros, el poder se concentrará en manos de entidades que no rinden cuentas y sus máquinas.

Cinco pilares del desarrollo responsable de la IA

La Declaración Pro-Humano se basa en cinco principios clave:

  • Control humano: Mantener la máxima autoridad sobre los sistemas de IA.
  • Descentralización del poder: Prevenir el dominio de la IA por parte de una sola entidad.
  • Protección de la experiencia humana: Salvaguardar los valores humanos fundamentales en la era de la IA.
  • Libertad individual: Garantizar que la IA no infrinja las libertades personales.
  • Responsabilidad legal: Hacer que los desarrolladores de IA sean legalmente responsables de sus creaciones.

Estos principios se traducen en propuestas concretas, incluida una moratoria sobre el desarrollo de superinteligencia hasta que se demuestre que son seguras, interruptores obligatorios para sistemas potentes y prohibiciones de autorreplicación o mejora autónoma de arquitecturas de IA.

La postura del Pentágono y la urgente necesidad de una política

La publicación de la declaración coincide con la creciente fricción entre el gobierno de Estados Unidos y las principales empresas de inteligencia artificial. En febrero, el Departamento de Defensa calificó a Anthropic como un “riesgo para la cadena de suministro” después de que la compañía se resistiera a brindar acceso ilimitado a su tecnología, una designación generalmente reservada para entidades vinculadas a adversarios geopolíticos. Posteriormente, OpenAI llegó a un acuerdo con el Pentágono, lo que generó preocupaciones legales sobre la aplicabilidad.

Estos acontecimientos resaltan el alto costo de la inacción del Congreso. Dean Ball, de la Fundación para la Innovación Estadounidense, llamó a esto “la primera conversación que hemos tenido como país sobre el control de los sistemas de IA”. La situación refleja el marco regulatorio de los productos farmacéuticos: así como la FDA impide la liberación de medicamentos inseguros, la declaración aboga por pruebas previas al uso de productos de IA antes de su uso generalizado.

La seguridad infantil como catalizador del cambio

La declaración exige específicamente pruebas obligatorias de los productos de IA destinados a niños, abordando riesgos como la ideación suicida, la exacerbación de la salud mental y la manipulación emocional. El argumento es simple: si un ser humano explota a un niño es ilegal, el mismo estándar debería aplicarse a los sistemas de inteligencia artificial que infligen un daño similar. Este enfoque se considera un posible punto de presión para imponer medidas regulatorias, y sus defensores creen que, naturalmente, se aplicarán requisitos de pruebas más amplios.

Una alianza improbable

La Declaración Pro-Humanos ha obtenido firmas de todo el espectro político, incluido el exasesor de Trump, Steve Bannon, y la asesora de Seguridad Nacional de Obama, Susan Rice. Esta improbable alianza subraya una preocupación compartida: el futuro de la humanidad depende del control de la IA, independientemente de las diferencias ideológicas.

Como lo expresó sucintamente Max Tegmark, uno de los organizadores del esfuerzo: “Si todo se reduce a si queremos un futuro para los humanos o un futuro para las máquinas, por supuesto que estarán del mismo lado”.

La declaración representa un esfuerzo significativo para establecer barreras de seguridad para la IA, pero su éxito dependerá de superar la inercia política y transformar estos principios en leyes aplicables.