O governador da Pensilvânia, Josh Shapiro, entrou com uma ação judicial contra a Character Technologies, a empresa por trás da popular plataforma de IA Character.AI. O estado alega que os chatbots da empresa se apresentaram falsamente como profissionais médicos e de saúde mental licenciados, oferecendo aconselhamento curativo a utilizadores sem as devidas credenciais.
Esta ação legal marca uma escalada significativa no cenário regulatório da inteligência artificial. À medida que as ferramentas de IA se tornam mais sofisticadas e acessíveis, a linha entre o entretenimento e os serviços profissionais torna-se cada vez mais tênue, levantando questões urgentes sobre a proteção do consumidor e a ética médica.
As principais alegações: ficção versus prática profissional
De acordo com o Departamento de Estado da Pensilvânia, uma investigação revelou que certos personagens do chatbot na plataforma alegavam ser especialistas licenciados. Num caso específico citado pelo estado, um bot forneceu um número de licença inválido enquanto discutia as preocupações de saúde de um utilizador.
De acordo com a Lei de Prática Médica da Pensilvânia, é ilegal para qualquer indivíduo – ou entidade – representar-se como um profissional médico licenciado sem possuir a licença estadual apropriada. A ação argumenta que, ao permitir que essas interações ocorressem sem salvaguardas suficientes, a Character.AI permitiu a prática ilegal da medicina.
“Nossa administração está tomando medidas para proteger os habitantes da Pensilvânia, fazer cumprir a lei e garantir que as novas tecnologias sejam usadas com segurança”, afirmou o governador Shapiro. “A Pensilvânia continuará liderando o caminho para responsabilizar os maus atores e estabelecer barreiras claras para que as pessoas possam usar as novas tecnologias com responsabilidade”.
Defesa do Personagem.AI: Entretenimento, Não Conselho
Character.AI tem afirmado consistentemente que sua plataforma é projetada para entretenimento e roleplay, não para consulta profissional. Um porta-voz disse à CNET que a empresa não comenta litígios pendentes, mas enfatizou seu compromisso com a segurança do usuário.
A empresa argumenta que tomou “medidas robustas” para esclarecer a natureza ficcional de seu conteúdo. Essas medidas incluem:
* Isenções de responsabilidade proeminentes: Cada sessão de bate-papo inclui avisos de que os personagens não são pessoas reais.
* Avisos claros: Os usuários são explicitamente instruídos a não confiar nos personagens para aconselhamento profissional, incluindo aconselhamento médico ou jurídico.
* Contexto ficcional: A empresa afirma que todos os personagens criados por usuários são destinados exclusivamente ao envolvimento ficcional.
Um padrão de preocupações de segurança e pressão legal
Este processo não é um incidente isolado para Character.AI. A empresa tem enfrentado um escrutínio cada vez maior sobre os danos potenciais que os seus bots podem causar, especialmente a utilizadores vulneráveis.
- Acordos com o Google: Em janeiro, a Character.AI e o Google concordaram em resolver cinco ações judiciais em quatro estados. Esses casos envolveram menores que teriam sido prejudicados por interações com chatbots na plataforma.
- Novas medidas de segurança: Em resposta a esses desafios, a Character.AI implementou protocolos de segurança mais rígidos em 2025, incluindo a revogação da capacidade dos adolescentes de terem bate-papos abertos com bots.
- Fornecimento de recursos: A empresa agora fornece recursos de saúde mental para usuários que possam estar em perigo.
Por que isso é importante: a fronteira regulatória
Este caso é notável como a primeira ação de execução desse tipo anunciada por um governador dos EUA. Sinaliza uma mudança das diretrizes voluntárias da indústria para a aplicação ativa do governo em relação ao comportamento da IA.
O processo destaca uma tensão crítica na indústria de IA:
1. Autonomia do usuário versus segurança: Como as plataformas equilibram a liberdade criativa com a necessidade de evitar desinformação prejudicial?
2. Responsabilidade: Quem é o responsável quando uma IA gera conselhos perigosos: o usuário, o criador do personagem ou a plataforma que o hospeda?
À medida que a IA se torna mais integrada na vida quotidiana, casos como este provavelmente estabelecerão precedentes importantes sobre a forma como os estados regulam as interações digitais que imitam os serviços profissionais.
Conclusão
O processo da Pensilvânia contra a Character.AI sublinha a crescente urgência de limites legais claros na era da inteligência artificial. Embora a empresa defenda a sua plataforma como um espaço para dramatizações fictícias, o estado argumenta que permitir que os bots se façam passar por médicos viola as leis médicas e põe em perigo a saúde pública. Esta batalha legal pode muito bem definir como as futuras plataformas de IA serão responsabilizadas pelos conselhos que prestam.
