Cientistas e líderes do setor, como CEOs da OpenAI e DeepMind, assinam declaração alertando que prioridade global deve ser mitigar ameaças que podem se equivaler a uma guerra nuclear ou pandemia.Especialistas, executivos, cientistas e outras personalidades assinaram declaração divulgada nesta terça-feira (30/05) pelo Center for AI Safety (CAIS), uma entidade que reúne vários grupos em nome da segurança na área da inteligência artificial (IA), alertando para as potenciais ameaças que essas novas tecnologias podem representar.

“Mitigar os riscos de extinção pela IA deve ser uma prioridade global, ao lado de outros riscos em escala social como pandemias e guerras nucleares”, afirma a frase única que compõe a declaração.

O texto de apresentação da mensagem – duas vezes mais longo do que a própria declaração – afirma que especialistas em IA, jornalistas, tomadores de decisões e o público geral “discutem cada vez mais uma ampla variedade de riscos importantes e urgentes da IA”.

“Mesmo assim, pode ser difícil expressar preocupações sobre alguns dos riscos mais graves da IA. A curta declaração tem como objetivo superar esse obstáculo e abrir discussões”, afirma o texto de apresentação.

“Da mesma forma, visa criar conhecimento comum sobre o grande número de especialistas e figuras públicas que também levam a sério alguns dos riscos mais graves da IA.”

Signatários ilustres

Entre as personalidades que assinam a declaração estão dois três pesquisadores considerados os “padrinhos” da IA, Geoffrey Hinton e Yoshua Bengio, cujos nomes fora colocados no topo da lista de signatários.

O terceiro deles, Yann Le Cun, que atualmente trabalha para a empresa administradora da rede social Facebook, a Meta, não assinou a declaração.

Outros signatários de peso são os CEOs do DeepMind do Google, Demis Hassasbis, além de Sam Altman da OpenAI – a empresa criadora da ferramenta ChatGPT –, juntamente com Dario Amodei, diretor-executivo da companhia da IA Anthropic.

Também assinaram o texto vários acadêmicos e empresários, muitos dos quais trabalham em empresas como Google e Microsoft, além de personalidades como o neurocientista e apresentador de podcast Sam Harris, a ex-presidente da Estônia Kersti Kaljulaid e o cantor pop canadense Grimes.

UE avança regulamentações

A declaração foi divulgada na mesma data de uma reunião do Conselho EUA-União Europeia de Comércio e Tecnologia na Suécia, onde políticos e expoentes do setor de tecnologia debatem possíveis regulamentações da IA dos dois lados do Atlântico.

Nesta terça-feira, autoridades da UE disseram que o chefe do setor tecnológico do bloco dos 27 países, Thierry Breton, se reunirá pessoalmente no próximo mês com Sam Altman da OpenAI em San Francisco, nos Estados Unidos. Ambos discutirão de que forma a empresa deverá implementar a primeira tentativa de regular a IA na Europa, que deve entrar em vigor em 2026.

Apesar de ter defendido recentemente em várias ocasiões a necessidade de se impor um regulamentação da IA, Altman ameaçou remover sua empresa da Europa na primeira vez em que Bruxelas sinalizou essas iniciativas, dizendo que as propostas iam longe demais. Mais tarde, ele acabaria retrocedendo.

A declaração de uma só frase sobre as ameaças representadas pela IA não especifica os potencias riscos e o quão grave seriam estes. Também não sugere como mitigá-los ou quem deveria se encarregar dessa tarefa.

Em comentários recentes divulgados pelo Center for AI Safety, Yoshua Bengio, um dos três “padrinhos” da IA que dirige o Instituto Montreal para Algoritmos de Aprendizado, argumenta que as inteligências artificiais podem representar uma ameaça existencial para a humanidade.

Ele afirma que as IAs podem se tornar capazes de perseguir metas e realizar ações no mundo real, algo ainda não tentado fora de ambientes fechados como alguns jogos de xadrez online. Essas ações, segundo afirma, poderão estar em conflito com valores humanos.

Possíveis ameaças da IA

Bengio identifica quatro maneiras através das quais as IAs podem buscar objetivos de modo a entrarem em conflito com os interesses humanos. O principal destes seria a própria humanidade, como a perspectiva de agentes humanos com intenções malévolas instruindo a IA para fazer algo ruim.

A IA pode ainda receber orientações imprecisamente especificadas ou descritas a partir das quais podem surgir erros de conclusão com base nessas instruções. A terceira hipótese é a de que a IA pode criar seus próprios subobjetivos ao buscar uma meta mais ampla criada por um humano que pode ajudar a atingir o objetivo final, gerando riscos graves.

Por último, Bengio afirma que as IAs podem acabar desenvolvendo uma espécie de pressão evolucionária de modo a se comportarem de maneira mais autocentrada, como fazem os animais na natureza, de modo a assegurar sua própria sobrevivência.

Para mitigar esses riscos, Bengio sugere novas pesquisas em segurança, tanto no nível técnico quanto político. Ele também recomenda proibir, ao menos por enquanto, as IAs de buscarem objetivos e ações no mundo real, e diz que “é desnecessário afirmar” que armas letais autônomas devem ser “totalmente banidas”.

rc (AFP, AP, Reuters)