IA responsável, sim obrigado

IA responsável, sim obrigado

A Inteligência Artificial (IA) nunca esteve tão presente na sociedade e na economia. Mas há que garantir que os sistemas trabalham em prol dos Humanos – e não contra eles.

Inteligência artificial (IA) é muito mais do que um jargão da nova tecnologia, com presença garantida em conferências e publicidade. É também mais do que uma tendência. Hoje, a IA está presente nos nossos bolsos, à mão de um toque ou comando de voz dirigido aos nossos smartphones.

Longe de ser um termo recente, a investigação e desenvolvimento em torno da IA teve vários momentos ao longo da História: uns de grande euforia em torno das potencialidades, e outros de maior acalmia, sem grande novidade reportada.

Mas este é um momento particularmente relevante, pois nunca a IA esteve tão presente no dia a dia como nunca houve tantas aplicações práticas como agora. Da medicina aos sistemas que controlam as cidades, a IA já está presente numa parte muito substancial das nossas vidas.

Definem-se como IA os sistemas capazes de funcionarem de forma autónoma e de tomarem decisões. Tanto pode ser o feed de notícias do Facebook como um qualquer algoritmo do departamento de Recursos Humanos de uma empresa, que escolhe os “melhores” candidatos a uma vaga de emprego com base em critérios pouco transparentes.

É por isso que é tão importante criar regras para garantir que estes sistemas trabalham em prol dos Humanos — e não contra eles.

Pegando no exemplo anterior: um algoritmo pode ser maliciosamente programado para excluir candidatos a uma certa vaga que vivam numa determinada zona, que tenham uma determinada nacionalidade ou, por exemplo, que sejam homossexuais. Um enviesamento que marginaliza minorias e que nunca terá como objetivo o bem comum.

No início deste mês, foram apresentadas as linhas orientadoras para a AI na União Europeia, resultado de um trabalho feito por um painel de especialistas (o primeiro rascunho foi apresentado em dezembro de 2018). A consulta pública recebeu mais de 500 contributos.

Os três princípios definem que a AI desenvolvida na UE deve 1) respeitar a lei, 2) respeitar os princípios éticos e os valores, e 3) ser robusta do ponto de vista técnico, tendo em conta o ambiente social em que se integra.

A AI europeia também deve estar aberta à supervisão humana, ter em conta a privacidade dos dados dos utilizadores, ser transparente do ponto de vista dos critérios que a regem promover a diversidade sem descriminação.

São apenas alguns exemplos de boas práticas que Bruxelas pretende testar e implementar no bloco, com vista à promoção de um ambiente favorável ao desenvolvimento de IA de forma ética e responsável no Mercado Único Digital.

A próxima fase é de testes e os stakeholders interessados poderão ter a oportunidade de participar no piloto, mediante registo aqui. A intenção da Comissão Europeia é arrancar com o programa no verão de 2019.

Os dilemas éticos em torno da IA surgem numa altura em que as grandes companhias tecnológicas enfrentam polémica e dúvidas em torno das regras que regem o seu desenvolvimento de sistemas assentes nesta tecnologia.

Uma das mais afetadas, pelo que se sabe, é a Google. Funcionários têm protestado contra a administração, que decidiu concorrer a um concurso público norte-americano do Pentágono para um contrato relacionado com cloud e que estará, alegadamente, envolvido num programa militar dos EUA relacionado com armamento.

Além disso, a empresa decidiu criar um conselho de ética na IA, mas a iniciativa durou apenas uma semana, tendo causado polémica devido à nomeação de uma figura ligada ao think-tank conservador Heritage Foundation, de acordo com o Financial Times.

Leave a Reply

Your email address will not be published.