Um novo quadro para o desenvolvimento responsável da IA, apelidado de “Declaração Pró-Humana”, emergiu de uma coligação de especialistas, antigos funcionários e figuras públicas, enquanto Washington luta para definir regras para a inteligência artificial. Esta iniciativa chega num momento crítico, realçado pelas recentes tensões entre o Pentágono e empresas de IA como a Anthropic e a OpenAI, expondo a falta de supervisão eficaz num campo em rápido avanço.
A crescente demanda por regulamentação de IA
Sondagens recentes indicam uma oposição pública esmagadora – 95% dos americanos – a uma corrida desenfreada em direcção à superinteligência. Este sentimento sublinha a urgência da declaração, que alerta a humanidade que se encontra numa encruzilhada: um caminho leva ao deslocamento humano por uma IA não controlada, enquanto o outro vê a IA como uma ferramenta para amplificar o potencial humano. O argumento central é que sem limites claros, o poder concentrar-se-á nas mãos de entidades irresponsáveis e das suas máquinas.
Cinco pilares do desenvolvimento responsável de IA
A Declaração Pró-Humana baseia-se em cinco princípios fundamentais:
- Controle Humano: Manter a autoridade final sobre os sistemas de IA.
- Descentralização de poder: Impedir o domínio da IA por qualquer entidade única.
- Proteção da experiência humana: Salvaguardar os valores humanos fundamentais na era da IA.
- Liberdade Individual: Garantir que a IA não infrinja as liberdades pessoais.
- Responsabilidade Legal: Responsabilizar legalmente os desenvolvedores de IA por suas criações.
Estes princípios traduzem-se em propostas concretas, incluindo uma moratória sobre o desenvolvimento de superinteligência até que seja comprovadamente segura, interruptores de interrupção obrigatórios para sistemas poderosos, e proibições de arquiteturas de IA auto-replicáveis ou de melhoria autónoma.
A posição do Pentágono e a necessidade urgente de política
A divulgação da declaração coincide com o crescente atrito entre o governo dos EUA e as principais empresas de IA. Em Fevereiro, o Departamento de Defesa classificou a Anthropic como um “risco da cadeia de abastecimento” depois de a empresa ter resistido a fornecer acesso irrestrito à sua tecnologia – uma designação normalmente reservada a entidades ligadas a adversários geopolíticos. Posteriormente, a OpenAI concordou com um acordo com o Pentágono, levantando preocupações jurídicas sobre a aplicabilidade.
Esses eventos destacam o alto custo da inação do Congresso. Dean Ball, da Fundação para a Inovação Americana, chamou esta de “a primeira conversa que tivemos como país sobre o controle dos sistemas de IA”. A situação reflecte o quadro regulamentar para os produtos farmacêuticos: tal como a FDA impede a libertação de medicamentos inseguros, a declaração defende testes pré-implantação de produtos de IA antes da utilização generalizada.
Segurança infantil como catalisador de mudança
A declaração apela especificamente a testes obrigatórios de produtos de IA destinados a crianças, abordando riscos como ideação suicida, exacerbação da saúde mental e manipulação emocional. O argumento é simples: se a exploração de uma criança por um ser humano é ilegal, o mesmo padrão deve aplicar-se aos sistemas de IA que infligem danos semelhantes. Esta abordagem é vista como um potencial ponto de pressão para forçar uma acção regulamentar, com os defensores a acreditarem que requisitos de testes mais amplos se seguirão naturalmente.
Uma aliança improvável
A Declaração Pró-Humana reuniu assinaturas de todo o espectro político, incluindo o antigo conselheiro de Trump, Steve Bannon, e a conselheira de Segurança Nacional de Obama, Susan Rice. Esta aliança improvável sublinha uma preocupação partilhada: o futuro da humanidade depende do controlo da IA, independentemente das diferenças ideológicas.
Como Max Tegmark, um dos organizadores do esforço, disse sucintamente: “Se a questão for se queremos um futuro para os humanos ou um futuro para as máquinas, é claro que eles estarão do mesmo lado.”
A declaração representa um esforço significativo para estabelecer barreiras de proteção para a IA, mas o seu sucesso dependerá da superação da inércia política e da transformação destes princípios em leis aplicáveis.
