Inteligência artificial. União Europeia prepara código de ética

 

A Comissão Europeia acaba de publicar um primeiro esboço de textos que irão compor um código de ética  para reger os sistemas de inteligência artificial (IA) confiáveis, a partir do critério pétreo de colocação do ser humano sempre no centro de todas as questões. A iniciativa é importante é provavelmente se tornará uma pedra angular de todos os códigos e regras subsequentes que, fatalmente, serão daqui para a frente elaborados em todo o mundo. A onipresença da IA no futuro de todos nós é uma certeza quase absoluta. Mas, sem regulação ética, ela pode se transformar numa terrível ferramenta de destruição.

Por: Luis Pellegrini

Na primavera de 2018, a Comissão Europeia selecionou 52 inteligências humanas para discutir o desafio ético representado pelo advento da inteligência artificial. Esses especialistas internacionais, provenientes da empresa privada, dos meios acadêmicos e das instituições públicas deram origem a um grupo de alto encarregado de redigir as linhas básicas para a criação e o desenvolvimento de um sistema de inteligência artificial confiável. O texto, ainda em forma de esboço, foi publicado em 18 de dezembro último, e durante alguns meses permanecerá disponível para consultas públicas e aberto a comentários e sugestões.

Não se trata, desta vez, da criação do enésimo código ético forrado de princípios generalizantes sobre o tema, como os muitos que já foram produzidos no passado. Bem diferente disso, ele contem numerosas indicações úteis para a aplicação prática dos princípios fundamentais do direito europeu no que tange o desenvolvimento de sistemas inteligentes.

Dignidade e liberdade humanas

O documento em questão, além de recomendar “robusteza e segurança dos sistemas”, insiste principalmente na centralidade do ser humano em toda e qualquer relação com a inteligência artificial. Primeiro, devem ser levadas em consideração a dignidade e a liberdade humanas, inclusive – e sobretudo – quando entram em jogo os algoritmos. A autonomia das pessoas deve sempre prevalecer sobre a autonomia artificial. Para tanto, é necessário que esteja sempre garantido o poder de supervisão dos homens sobre as máquinas, de maneira a limitar as decisões dessas últimas. O “super administrador do sistema”, deve, assim sendo, permanecer humano.

O olho de HAL 9000, a inteligência artificial do filme 2001, Odisseia do Espaço, que decide eliminar os humanos a bordo da espaçonave Discovery para preservar o objetivo da missão.

Como premissa lógica, o texto em redação afirma que os algoritmos e suas escolhas e evolução devem permanecer sempre compreensíveis aos seres humanos. Não existe espaço, pelo menos nessa perspectiva ética europeia, para o surgimento de formas de inteligência artificial profunda, obscura e insondável, não transparente, capaz de controlar não apenas a existência dos humanos mas também a sua própria existência e sua evolução.

Existe nessa iniciativa da Comissão Europeia, no entanto, e segundo os críticos, uma insuficiência de fundo: ela será sempre um código de regras aberto à adesão voluntária de governos, pesquisadores e empresas, e não de normas vinculantes. Por tal razão, a pergunta que se faz é quais efeitos ela poderá ter sobre os gigantes tecnológicos multinacionais, hoje muitas vezes mais influentes que os próprios Estados, ou sobre os sistemas tecnológicos inteligentes que podem se auto-evoluir.

Além disso, sempre segundo os seus críticos, o documento que emergirá desses textos corre o risco de pecar por ingenuidade em relação a certos pontos, como quando indica a assim chamada “rule of law by design”, ou seja a necessidade de respeitar o Estado de direito – e portanto a Constituição e as Leis – desde o início da criação de projetos de novos sistemas de inteligência artificial.

A ética dos robôs

O assunto é momentoso, e mobiliza as maiores instituições humanitárias do mundo. A Unesco, por exemplo, também já promove reuniões de importantes estudiosos para discutir questões originadas pela rápida evolução da inteligência artificial, como a interação entre robôs e humanos e as responsabilidades legais que o novo quadro oferece. O texto abaixo, publicado no prestigioso site Unescopress, é um exemplo disso. Ele foi publicado sob o título “A ética dos robôs”, e diz:

Nesse quadro, um painel de especialistas em ética da ciência e da tecnologia começou a explorar a possibilidade de que os robôs venham a se tornar “máquinas morais” com potenciais direitos legais no caso de desenvolverem a capacidade de sentir emoções e distinguirem entre o certo e o errado.

“Dependendo de futuros avanços nessa área de pesquisa, não se deve excluir a possibilidade da senciência (a percepção pelos sentidos), das emoções e, consequentemente, do status moral dos robôs do futuro”, escreveu um grupo de trabalho sobre as tecnologias emergentes da Comissão Mundial para a Ética do Conhecimento Científico e Tecnológico (Comest, na sigla em francês), corpo consultivo científico da Unesco, em um relatório preliminar sobre o tema divulgado em setembro.

Desde que os primeiros robôs industriais foram usados na fabricação de automóveis nos anos 1950, essas máquinas se tornaram um fato da vida moderna. Os robôs são utilizados em fábricas, zonas de guerra, medicina, cuidados de idosos e tratamento de crianças com autismo. Popularizados por romances de ficção científica, filmes e programas de televisão, de Guerra nas Estrelas a O Exterminador do Futuro, os robôs são cada vez mais visíveis. Os especialistas estão a especular sobre a possibilidade de que os seres humanos poderiam se apaixonar ou ter sexo com robôs.

O “Rascunho de Relatório Preliminar da Comest sobre a Ética Robótica” examina questões éticas relacionadas ao uso de robôs autônomos e como os seres humanos interagem com eles. O rápido desenvolvimento de robôs autônomos altamente inteligentes provavelmente vai desafiar nossa classificação atual dos seres de acordo com seu estatuto moral, de forma semelhante ou talvez até mais profunda do que o movimento de direitos dos animais, dizem os autores do relatório.

O comportamento de um robô – mesmo se for altamente complexo, inteligente e autônomo – é determinado por seres humanos. No entanto, assumindo que os robôs do futuro tendem a ser ainda mais sofisticados (talvez até o ponto de aprender com experiências passadas e programar-se), a natureza de seus algoritmos – um conjunto de instruções precisas sobre como o robô deve operar – provavelmente se tornará um problema digno de “atenção ética séria e reflexão”, diz o relatório.

Tarefas perigosas

Embora a maioria dos estudiosos que trabalham em “ética da máquina” concorde que os robôs ainda estão longe de ser “agentes éticos” como seres humanos, especula-se que esses aparelhos poderão adquirir ­características humanas no futuro, como o senso de humor. A visão que prevalece sobre os robôs – graças à ficção científica – é que eles são máquinas que se parecem, pensam e se comportam como seres humanos. No entanto, os robôs não necessariamente assumem a forma humana.

Eles podem ser máquinas inteligentes que executam tarefas mecânicas de rotina, repetitivas e perigosas.­ “A autonomia dos robôs provavelmente vai crescer na medida em que sua regulação ética se torne necessária, pela programação com códigos de ética especificamente concebidos para impedir seu comportamento prejudicial (como pôr em perigo seres humanos ou o meio ambiente, por exemplo)”, diz o relatório.

Tendo em conta a complexidade dos robôs contemporâneos, a questão evolui para saber quem deve assumir a responsabilidade – ética e legal – nos casos em que robôs funcionarem mal e prejudicarem os humanos, de acordo com o relatório. A robótica permanece ética e legalmente sob regulamentação, provavelmente porque é um campo de pesquisa relativamente novo e em rápida transformação, cujo impacto no mundo real muitas vezes é difícil de prever.

“É provável que o mal funcionamento de robôs sofisticados de hoje possa infligir danos significativos para um grande número de seres humanos (por exemplo, robôs militares armados ou carros robóticos autônomos saindo de controle)”, diz o relatório. “A questão é, portanto, não somente se roboticistas devem respeitar certas normas éticas, mas se certas normas éticas precisam ser programadas nos próprios robôs.” A Unesco tem um papel de liderança na promoção global da ciência ética: ciência que compartilha os benefícios do progresso para todos, protege o planeta do colapso ecológico e estabelece uma base sólida para a cooperação ­pacífica.

Comentários

comentários

Comente