13.3 C
Dourados
segunda-feira, julho 8, 2024

‘A inteligência artificial será muito mais poderosa que nós’, diz cientista que virou referência no tema

- Publicidade -

Professor da Universidade da Califórnia em Berkeley (EUA), Stuart Russell é um dos maiores especialistas em ciências da computação e inteligência artificial (IA) no mundo. Foi vice-presidente do Conselho de IA e Robótica do Fórum Econômico Mundial e consultor da ONU para o controle de armas.

Um dos autores de “Inteligência artificial”, livro que é referência acadêmica central no tema, o britânico lança agora no Brasil “Inteligência artificial a nosso favor: como manter o controle sobre a tecnologia” (Cia. das Letras).

Em conversa por e-mail com o jornal O Globo, Russell destaca o avanço impressionante da IA em áreas como a de carros autônomos (“serão mais popularizados nesta década”), mas alerta para seu efeito na desigualdade: “Mais pessoas serão marginalizadas”.

Ele defende uma moratória para o uso da tecnologia na indústria armamentista: “Pode haver impacto devastador comparável ao de bombas nucleares”.

O que o surpreendeu mais no desenvolvimento da IA nos últimos 25 anos?

A locomoção com pernas feita de forma incrivelmente ágil, semelhante a um animal, demonstrada em 2010 pelo robô BigDog (da americana Boston Dynamics).

Até então os robôs com pernas eram lentos, rígidos, pesados, caíam ao menor distúrbio. Não mais. Nosso progresso também foi enorme em resolver problemas de raciocínio lógico e de planejamento, nos jogos, na percepção visual e na aprendizagem.

Tradução automática é outro problema difícil e antigo essencialmente resolvido para fins práticos. Os carros sem motoristas já são uma realidade e vão se difundir ainda mais nesta década.

Já robôs completamente autônomos e domésticos podem estar mais distantes, pois exigem muito mais flexibilidade para lidar com as complexidades, por exemplo, de um canteiro de obras ou de uma residência.

Em outubro, o senhor alertou oficiais da Defesa britânica sobre riscos da IA na indústria de armamentos. Algumas reportagens deram conta de que o senhor fez comparações com bombas nucleares…

Não disse textualmente que sistemas de IA armados poderiam acabar com a Humanidade, mas sim que grandes enxames de armas-robôs letais podem ter um impacto devastador comparável ao de armas nucleares. E seria muito mais “em conta”, mais fácil de se construir e de se usar.

Não haveria ruína radioativa e (como já se vê com os drones usados pelos EUA na Ásia) será possível matar apenas pessoas-alvo. Preciso dizer que me deu alegria, aliás, o Brasil, por meio de tratado internacional, apoiar a campanha para se banir estas armas autônomas letais.

Uma moratória de armas autônomas letais seria de fato possível com EUA e Rússia opostos à medida?

É preciso banir todas as armas que localizam, selecionam e atacam alvos humanos sem supervisão de um ser vivo responsável, ou seja, as autônomas letais. E banir a pesquisa, a criação, o desenvolvimento e o uso.

Não haveria ruína radioativa e (como já se vê com os drones usados pelos EUA na Ásia) será possível matar apenas pessoas-alvo. Preciso dizer que me deu alegria, aliás, o Brasil, por meio de tratado internacional, apoiar a campanha para se banir estas armas autônomas letais.

Uma moratória de armas autônomas letais seria de fato possível com EUA e Rússia opostos à medida?

É preciso banir todas as armas que localizam, selecionam e atacam alvos humanos sem supervisão de um ser vivo responsável, ou seja, as autônomas letais. E banir a pesquisa, a criação, o desenvolvimento e o uso.

E mais: deveríamos ter mecanismos de fiscalização e punição na linha da Convenção Sobre as Armas Químicas (CWC, na sigla em inglês), de 1997, podendo exigir que fabricantes de determinados dispositivos interrompam imediatamente a produção e/ou façam uma seleção rigorosa de compradores em potencial.

Também se poderia incluir restrições no design de drones pilotados remotamente, para garantir que qualquer alteração de software não os transforme em armas autônomas.

No momento, de fato, EUA e Rússia bloqueiam o avanço de um tratado global. Há a possibilidade de que o tema, hoje em Genebra, seja levado para a Assembleia Geral da ONU, em Nova York, onde não haveria necessidade de unanimidade para aprovação. Ou, como no caso do Tratado de Ottawa, de 1997, que bane as minas terrestres, de ser negociado fora do âmbito da ONU.

De qualquer forma, não entendo por que EUA e Rússia arriscam permitir a possibilidade de criação de armas de destruição em massa ‘baratas’, que podem ser produzidas e oferecidas de forma perigosamente ampla.

Países como o Brasil, que sofrem com violência urbana, em áreas sem controle do Estado, deveriam estar atentos à proliferação deste tipo de armas?

No México, cartéis já estão usando drones controlados à distância para assassinar rivais. É uma questão de tempo para tentarem usar armas-robôs letais. Mas há um porém estratégico: se não for para o uso em escalas gigantescas, como em um ataque-enxame, não vejo vantagem no uso deste tipo de armamento inteligente.

Inclusive, o tratado que está sendo discutido bane o uso de armas-robôs apenas no caso de enfrentamento entre nações, não para uso local. É como o gás lacrimogêneo. Os países, individualmente, poderão banir a produção local, a importação e o uso em seu solo destas armas.

Não há hoje, no entanto, legislação voltada para o tema. A Comunidade Europeia bane qualquer decisão “tomada por algoritmo” que tenha “efeito legal similar” ao de um indivíduo, mas não trata de armamentos ou de ação que cause a morte de outra pessoa. Defendo a lógica de se estender a interpretação para armas inteligentes letais…

Quais outros aspectos merecem atenção urgente no desenvolvimento da IA?

Os algoritmos nas redes sociais, que têm papel central no aumento da polarização e na amplificação da desinformação. Também precisamos pensar sobre o que acontecerá se tivermos sucesso em criar uma espécie de super-homem artificial inteligente.

Quando (o matemático e cientista britânico) Alan Turing (1912-1954) considerou esta possibilidade, em palestra em 1951, afirmou que “após se iniciar um método de pensamento da máquina, não demorará muito para ela nos superar, devemos esperar que em algum momento elas assumam o controle”. Ou, de outra maneira: uma inteligência artificial de uso geral será sim muito mais poderosa que nós.

Mas, o título de seu livro diz ser possível usar inteligência artificial a nosso favor…

Como assegurar que ela não se voltará contra nós? Há muitas maneiras de se responder esta questão, e todas incluem repensar completamente a maneira como estamos projetando e construindo hoje os sistemas de IA. E, claro, precisamos fazer isso antes de criar essa IA de uso geral.

O aumento das desigualdades sociais é uma preocupação?

Sim, central. Se seguirmos os caminhos de hoje, quem controlar os sistemas de IA terá gradualmente mais poder econômico em escala global. Mais pessoas serão marginalizadas e a “democratização” da tecnologia não resolverá a questão.

Se uma casa construída por robôs custar US$ 20 mil e uma por humanos sair por US$ 200 mil, “democratizar” o acesso tecnológico, em um mundo em que a moradia permanecerá sendo um problema social central, não protegerá o emprego das pessoas.

Temos de pensar em mecanismos tributários específicos ou num esquema de participação acionária especial para garantir que os benefícios econômicos gerados pela IA sejam amplamente compartilhados.

O problema é que nenhum de nós consegue oferecer, até o momento, visão convincente deste novo mundo em que sistemas de IA farão a maior parte do que hoje chamamos trabalho. 

- Publicidade -
- Publicidade -
- Publicidade -

Últimas Notícias

Últimas Notícias

- Publicidade-