Conectate con nosotros

Internacionales

Inteligência artificial tem perigo em comum com arma nuclear, diz pesquisador

Publicado

en

Há cerca de três semanas, dois pesquisadores da Universidade de Oxford foram convidados pelo Parlamento do Reino Unido para falar sobre os riscos da inteligência artificial (IA).

IVAN FINOTTI
MADRI, ESPANHA (FOLHAPRESS) – Há cerca de três semanas, dois pesquisadores da Universidade de Oxford foram convidados pelo Parlamento do Reino Unido para falar sobre os riscos da inteligência artificial (IA). A reunião aconteceu após a aparição do ChatGPT, que deslumbrou pessoas em todo o mundo.


O recurso tem sido apontado como uma nova revolução digital. Mas, no Palácio de Westminster, o professor Michael Osborne e seu aluno Michael Cohen deram alguns exemplos desastrosos sobre mau uso de IA. Se a um sistema do tipo fosse que pedido que erradicasse o câncer, por exemplo, ele poderia achar que matar todos os seres humanos seria um meio válido para que a doença fosse eliminada.


Em outro momento, a dupla comparou a ameaça da IA à das armas nucleares. Em entrevista, Osbourne detalha como isso pode acontecer e revela que a IA pode, sim, se tornar autoconsciente.

PERGUNTA – A história de máquinas autossuficientes dominando a Terra e tentando extinguir a raça humana, contada em filmes e livros de ficção científica, pode acontecer de verdade?
MICHAEL OSBORNE – Estamos vendo que a inteligência artificial se tornou muito poderosa muito rapidamente, notadamente na forma do ChatGPT, que demonstra alguns graus de raciocínio e inteligência. Precisamos pensar seriamente sobre como essa tecnologia será no futuro –estou pensando na propagação da desinformação, em possíveis impactos sobre empregos, em discursos de preconceito, em preocupações com a privacidade.

A IA está se tornando autoconsciente?
M. O. – Não acho impossível que a inteligência artificial se torne consciente, ainda que mesmo os algoritmos mais avançados estejam longe do nível de sofisticação de um ser humano. Mas, a longo prazo, não acho que exista nenhum obstáculo fundamental para uma IA desenvolver autoconsciência e capacidades muito avançadas de planejamento e raciocínio.

Há seis meses, o Google demitiu um engenheiro que disse que a IA na qual trabalhava tinha adquirido consciência. O que pensa sobre isso?
M. O. – Isso foi no LaMDA [modelo de linguagem para aplicativos de diálogo]. A primeira coisa é que aquele engenheiro estava incorreto. Todos que trabalhamos nesse campo podemos dizer isso. Os modelos de linguagem estão muito longe de serem conscientes. Eles não entendem o mundo ao seu redor da maneira que os humanos o fazem.
Mas estou feliz que o engenheiro tenha falado. Precisamos proteger quem faz denúncias como essa e criar uma estrutura na qual aqueles que trabalham nessas tecnologias em grandes empresas não transparentes, como o Google, possam sair publicamente e declarar que têm preocupações legítimas sem serem punidos por isso.

A ameaça da IA é pior que a das armas nucleares?
M. O. – Existem perigos em comum. A IA, assim com a energia nuclear, é o que chamamos de tecnologia de uso duplo: ou seja, tem aplicações civis e militares.
A energia nuclear é uma perspectiva empolgante para a obtenção do fim das emissões de carbono. Mas também pode ser aproveitada como arma. Também há enormes vantagens na IA. Mas a IA também está sendo utilizada como um meio de direcionar drones para o alvo.

É possível que a IA faça mal sem ter a intenção?
M. O. – Para que a IA funcione, temos de apresentar um objetivo, especificar o que ela deve fazer. E, claro, o que dizemos pode não ser o que realmente queremos.
Aqui vai um exemplo que pode ser útil: em 1908, o The New York Times relatou a história de um cachorro em Paris que vivia nas margens do Sena, resgatou uma criança do rio e foi recompensado com um bife. E todos ficaram encantados, claro. Então aconteceu de novo. O cachorro tirou outra criança do rio e ganhou outro bife. E depois de novo. Uau. Então uma investigação foi feita, e descobriram que o cachorro estava empurrando crianças no rio para que receber seu bife como recompensa. Se não entendemos os objetivos que estabelecemos para a IA, podemos levá-la a comportamentos bastante problemáticos.

As pessoas estão maravilhadas com o ChatGPT. Qual será o impacto disso no dia a dia?
M. O. – O ChatGPT e modelos de linguagem semelhante provavelmente terão o nível de impacto que os mecanismos de pesquisa [como a busca do Google] tiveram.
De certa forma, o GPT pode ser um concorrente dos mecanismos de busca. Mas não é perfeito –você não pode confiar sempre nas informações que ele te dá, assim como não pode sempre confiar nas informações retornadas pelo seu mecanismo de busca. Com o tempo, nos acostumamos com esse fato e encontramos maneiras de usar os mecanismos de pesquisa de maneira eficaz.

O sr. falou ao Parlamento sobre os riscos de uma corrida armamentista. Do que se trata?
M. O. – Pensava na dinâmica que estamos vendo entre a OpenAI [empresa que lançou o ChatGPT] e o Google. O Google tornou público a ameaça que o ChatGPT representa para seu negócio primário, a pesquisa e a venda de espaço publicitário. Os dois estão em competição direta.
E o Google está investindo em seus próprios modelos de linguagem. É uma corrida armamentista no sentido de que pode haver danos: o Google disse que está recalibrando o nível de risco que está disposto a assumir ao lançar produtos. Quando esses dois atores tecnológicos poderosos se enfrentam e competem, há preocupações legítimas sobre se questões de segurança estão sendo deixadas para trás.

O que o sr. propõe?
M. O. – Acho que a IA é uma tecnologia essencial para garantir o florescimento humano. Mas precisamos desenvolvê-la de maneira segura e responsável. Em primeiro lugar, devemos pensar sobre a regulamentação da IA, que precisa ser adaptável e flexível. Não acho que seremos capazes de criar um único conjunto de regras que governe todos os casos de uso possíveis de IA.
Existem alguns lugares onde acho que devemos simplesmente não usá-la. Podemos dizer que o reconhecimento facial para policiamento pode ser um exemplo, porque essa tecnologia pode facilmente se tornar tendenciosa de uma forma realmente problemática.

Há algo sendo feito?
M. O. – A União Europeia está desenvolvendo seu próprio regulamento de IA, que deve ser finalizado em 2024. Mas é verdade que muitas nações estão nos estágios iniciais de pensar em IA.
Em 1942, o escritor de ficção científica Isaac Asimov criou as três leis da robótica, justamente para impedir que máquinas fizessem mal a humanos. Não poderíamos aplicá-las à IA? Infelizmente, não. Não acho que as três leis sejam suficientes (risos). Mas elas são um exercício de pensamento realmente interessante para descobrirmos alguns desses casos problemáticos que precisaremos resolver.Raio-X | Michael Osborne
É professor associado de machine learning (aprendizado de máquina) na Universidade de Oxford. Seu trabalho já foi aplicado em contextos diversos, desde a detecção de planetas em sistemas solares distantes até mecanismos que alteram rotas de carros autônomos devido a obras nas estradas. Também pesquisa como os algoritmos inteligentes podem substituir trabalhadores humanos, focando as consequências sociais. É cofundador da empresa de tecnologia Mind Foundry.

Sigue leyendo
Anuncio Disponible

Tendencias