Inteligência artificial deve respeitar os direitos humanos - Crédito: Divulgação

Crédito: Divulgação

Para que a Inteligência Artificial (IA) possa tratar ou tentar imitar a inteligência humana, é preciso considerar a empatia, a moral e a ética, que são elementos que permeiam a inteligência humana, afirmou Ana Brian, relatora especial da ONU para privacidade, durante a Conferência Latino Americana de Inteligência Artificial e Proteção de Dados 2021, realizada hoje pela FGV Direito Rio.

Segundo ela, a regulação de dados está avançando muito em todos os continentes do planeta graças à evolução da Inteligência Artificial. Atualmente, há 142 países no mundo com regulação de tratamento de dados pessoais, com 94 autoridades de proteção e 505 milhões de pessoas com acesso a internet.

“Mas são apenas 65% da população mundial com acesso a internet. Inovar é essencial, porém devemos levar em consideração os direitos humanos de uma forma crítica e responsável. A nossa perspectiva sobre a regulação é melhorar a qualidade de vida dos cidadãos do mundo”, disse.

Na sua opinião, para que os sistemas de IA realmente passem a lidar com respeito com a área de direitos humanos devem ser realizadas análises de impacto por ONGs ou por organizações da sociedade civil.

Na Colômbia, a autoridade de proteção de dados do país gerou um sandbox regulatório para trabalhar temas de inteligência artificial a partir do âmbito público, em que foram convidados diferentes atores utilizando o princípio de ‘privacy by design’. “É muito interessante o que está acontecendo por lá, pois é uma boa forma de gestão e de criar bons elementos.”

Proteção e privacidade de dados

Brian lembra que desde o começo, a IA foi convidada a imitar o conhecimento humano por meio de diferentes sistemas. Mas há tantos dados e eles são tão complexos, que fica cada vez mais difícil identificar o que é um dado pessoal.

“Hoje as estatísticas, a matemática e a informática, conjuntamente, estão preparadas para fazer uma boa tomada de decisão. Até que ponto podemos permitir que as coisas sejam assim. Sabemos que é possível criar máquinas que aprendam por si próprias, e as coisas estão integradas para se conectarem em rede e poderem trocar nossos dados. Por outro lado, questiona-se se o GDPR pode deter a pesquisa e a inovação na IA. A revolução está acontecendo em todas as áreas”, observa Brian.

Do ponto de vista da administração pública, segundo ela, gestores enxergam o General Data Protection Regulation (GPDR), regulamento de proteção de dados europeu, como uma barreira devido ao gerenciamento de dados em excesso. “O GDPR passou a ser tão importante porque trouxe um sistema mais duro na proteção de dados.”

Regulamentação IA europeia

Em abril deste ano, a Europa lançou a primeira regulamentação sobre IA e Reconhecimento Facial, criada e estudada pela Eurocamara, câmara de comércio europeia, e, também, pelos governos europeus dos países envolvidos. Essa regulamentação, segundo Brian, é restritiva e gera quatro fases de IA que devem ser levadas em consideração e tratadas de formas diferentes.

No que se refere ao conceito de IA mais rígida, há a IA aplicada em brinquedos infantis que, segundo ela, tem sido uma violência. Esses brinquedos estão restritos por vários elementos que limitam a sua fabricação. Enquanto o chatbot, ferramenta de IA que conversa com as pessoas, estão inseridos na categoria de IA que provocam menos prejuízos. A única exigência é que a parte humana, que está do outro lado, possa saber que está falando com uma máquina e não com um ser humano.

No que tange ao reconhecimento facial, a tendência é limitar o que tem a ver com características biométricas e de  biovigilância em locais públicos.

Ela destacou a declaração de Verónica Michelle Bachelet, comissária dos direitos humanos para as Nações Unidas e ex-presidente do Chile, que diz que o uso dos sistemas de inteligência artificial e sua venda ameaça os direitos humanos até que sejam colocadas as limitações necessárias.