Os perigos da inteligência artificial. Seis questões delicadas

 

Limitação das liberdades pessoais, discriminação, manipulação da opinião pública: estes são alguns dos riscos embutidos na inteligência artificial. 

Por: Equipe Oásis

A Inteligência Artificial (IA) já demonstrou todo o seu potencial nas mais diversas áreas da ciência e da tecnologia: da análise de dados à luta contra o terrorismo, da pesquisa médica às missões espaciais. Agora é ponto pacífico: big data e supercomputadores prometem revolucionar nossas vidas.

Existe, no entanto, um probleminha… A potência dos sistemas de IA, se mal direcionados, pode se tornar muito perigosa. E não estamos falando do risco de robôs assassinos que rondam pelas ruas das cidades, atirando em qualquer um que se aproxime deles, mas sim de “maus usos” mais sutis porém da mesma forma perigosos, de aplicativos que hoje já existem em plena atividade.

Acidentes sem motorista

O ciclista atropelado e morto nos Estados Unidos em março do ano passado por um dos automóveis sem motorista da Uber reabriu o debate a respeito da efetiva maturidade dessa tecnologia. Com efeito, o sistema de guia do veículo não conseguiu identificar e classificar corretamente como “pessoa em bicicleta” a vítima: poderia tê-la confundido com um simples saco plástico levado pelo vento e, dessa forma, tê-la “conscientemente” investido.
Um erro de programação, portanto, que poderia ser evitado com relativa facilidade. Mas quem verifica e testa a efetiva segurança dos sistemas de condução autônoma? Quem deve tomar a responsabilidade de dar a carta de motorista aos robôs? Do ponto de vista normativo existe ainda muita confusão.

O escândalo da Cambridge Analytica, em março de 2018 – que pôs em sérias dúvidas a veracidade da eleição de Donald Trump à presidência dos EUA – por sua vez evidenciou a real capacidade das mídias sociais de pilotar a consciência política das pessoas simplesmente dando maior ou menor destaque a certas notícias e a certas fontes de informação em detrimento de outras.

O próprio Mark Zuckerberg, durante um interrogatório diante do plenário do Senado norte-americano, prometeu ao mundo a criação de sistemas de inteligência artificial capazes de bloquear desde a fonte a difusão de fake news, seja em formato de texto quanto de vídeo. Facebook deverá começar a experimentar essa tecnologia já nos próximos meses, por ocasião das eleições gerais que ocorrerão na Nigéria e na África do Sul.

Um outro caso, ocorrido no ano passado, diz respeito a alguns pesquisadores e funcionários do Google. Eles ficaram sabendo das circunstâncias pelas quais Google tinha colocado, com o Projeto Maven (este é o nome em código do projeto), as suas tecnologias à disposição do Pentágono para classificar e reconhecer imagens capturadas por drones. Existia, particularmente, o temor de que sistemas de inteligência artificial do Google pudessem ser empregados para fornecer indicações a drones assassinos ou para identificar alvos a ser atingidos por armas autônomas.

Google aceitou a objeção de consciência dos seus dependentes e redigiu e distribuiu um código ético para a Inteligência Artificial, no qual se empenhava a não realizar e desenvolver sistemas ou softwares que utilizam a IA para acarretar danos ao ser humano. Em resumo, uma releitura moderna das três leis da robótica formuladas pelo escritor de ficção científica Isaac Asimov.

A IA nos diverte com videogames, simplifica nossas vidas com os assistenciais vocais e colabora com a pesquisa científica. Mas quais são os efeitos colaterais de tudo isso?

Mas o Pentágono parece se deixar condicionar por esse panorama e, interessado em atingir os seus objetivos, investirá também neste ano de 2019 somas enormes para o desenvolvimento de armas baseadas na inteligência artificial.

A palavra está agora com as Nações Unidas, que no decorrer dos próximos meses têm em sua agenda diversos encontros sobre o tema, com o objetivo final de um banimento definitivo e antecipado desses sistemas de armamento.

O Grande Irmão está entre nós

E oque dizer do que está acontecendo na China? O país asiático admitiu, no decorrer de 2018, ter realizado o mais vasto e capilar sistema de vigilância do mundo. Centenas de milhares de telecâmeras espalhadas por todo o país e um poderosíssimo software de reconhecimento facial capaz de identificar praticamente qualquer pessoa: delinquentes e contraventores procurados pela polícia, mas também cidadãos comuns, dissidentes políticos ou adversários do poder constituído.

As associações para a tutela dos direitos humanos advertem contra essa tecnologia , que, já hoje, permite o reconhecimento da fisionomia de todos nós nas mídias sociais, bem como seguir nossos deslocamentos, controlar quem frequentamos e onde vamos. Segundo expertos do MIT no decorrer dos próximos meses o reconhecimento facial nos levará ainda mais além e assistiremos ao surgimento de sistemas capazes de identificar as nossas emoções diante de uma tela de televisão ou computador, diante de uma vitrina ou de uma prateleira de supermercado.

Mas, ao mesmo tempo, poderemos ver também as primeiras regulamentações legais a respeito do uso de sistemas tão invasores.

Para além das fake news

Se 2018 foi o ano das fake news, 2019 poderá ser o ano dos fake vídeos. Sistemas de inteligência artificial cada vez mais evoluídos como os Generative Adversarial Network permitem, com efeito, realizar, de maneira afinal bastante simples, vídeos totalmente falsos e enganos, porém praticamente indistinguíveis daqueles verdadeiros.
Nvidia, empresa líder da computação gráfica e dos videogames, apresentou em dezembro último um protótipo de programa que utiliza inteligência artificial para realizar imagens de pessoas totalmente inventadas de toda e qualquer raça, idade e sexo.

O risco, do ponto de vista político, é enorme e facilmente perceptível, a tal ponto que a própria DARPA, a agência do governo norte-americano que se ocupa de tecnologias militares, está trabalhando em sistemas de IA capazes de reconhecer os fake vídeos. E a esse ponto cabe a pergunta: Conseguirá a IA nos proteger dos problemas causados pela IA?

Com base em um estudo do Georgia Institute of Technology, alguns sistemas de detecção de imagens nos veículos autônomos poderão ter muito mais dificuldade para identificar os passantes de pele escura do que aqueles de pele clara. Na média, os oito sistemas testados (nenhum deles, porém, atualmente em uso) apresentavam uma eficácia cerca de 5% inferior para perceber a presença de transeuntes de pele escura. Essa dificuldade persistia até mesmo quando se levava em conta detalhes como, por exemplo, a hora do dia ou a presença de barreiras ou filtros que pudessem escurecer o rosto de uma pessoa. Talvez porque esses algoritmos não tivessem sido treinados com um número suficiente de imagens de pessoas dotadas de pele escura, ou porque não foi dado um peso suficiente à amostragem de indivíduos com essa característica.

Preconceitos digitais

Por fim, existe ainda o tema do “preconceito”, citado com frequência cada vez maior quando se toca o tema dos sistemas de inteligência artificial. Com efeito, ficou demonstrado que tais sistemas podem se tornar racistas e misóginos, pois eles espelham as convicções inatas, e muitas vezes inconscientes, de quem os criou. Ou – e isso é um outro risco -, poderiam herdar erros de comportamentos do passado e continuar colocando-os em prática no futuro. Um exemplo? Um sistema de reconhecimento visual treinado a partir de dados “não equilibrados” poderia ter problemas para identificar corretamente as mulheres ou as pessoas de cor negra. Ou então, poderia acontecer que o sistema de IA empregado para selecionar o pessoal de uma empresa e que se baseia em dados do passado, possa continuar a refletir, nas suas escolhas, determinadas discriminações que herdou do passado.

Trata-se de uma situação difícil de modificar porque, ainda hoje, nas empresas que utilizam a IA, cerca de 70% das pessoas que ocupam postos gerenciais pertence ao sexo masculino. O mesmo acontece nas universidades. Sem tocar no fato de que os negros e os latino-americanos constituem um percentual muito menor em relação aos brancos.
2019 poderá ser, no entanto, o ano da reviravolta: os especialistas do setor com efeito se preparam para a primeira grande conferência, em nível internacional, sobre o tema. Ela acontecerá na Etiópia, em 2020. Por que na Etiópia? Porque os cientistas etíopes que se ocupam de inteligência artificial são os que mais têm problemas para conseguir os vistos necessários à emigração para países mais desenvolvidos…

 

Comentários

comentários

Comente