Peck Advogados

A adoção de Inteligência Artificial pode adicionar 4,2 pontos percentuais de crescimento adicional ao PIB do Brasil até 2030, projeta estudo da Microsoft. A tecnologia, uma das mais promissoras das próximas décadas, já impacta a vida urbana a partir da sua aplicação em áreas como transporte, robôs domésticos, saúde, educação, entretenimento, segurança pública e emprego. Aliás, ao contrário das previsões pessimistas sempre que pensamos na hiper automação, a perspectiva é que novos postos de trabalho sejam criados na mesma medida em que outros são eliminados pelo uso dos robôs.

A IA está ajudando a salvar vidas, a tornar os nossos deslocamentos mais ágeis e intuitivos nos grandes centros urbanos e a ajudar as empresas a se anteciparem e oferecerem produtos e serviços hiper personalizados aos consumidores. Agora, quando pensamos no futuro, estudiosos da tecnologia apontam para uma reflexão importante: as questões éticas que envolvem essa tecnologia, e que precisam ser consideradas pelas empresas e governos.

São desafios, por exemplo, como o da criação de produtos seguros e confiáveis, com os robôs que  guiarão os carros autônomos e os robôs de saúde; e os cuidados para que os algoritmos não acabem replicando preconceitos e  marginalizando ainda mais as minorias.

Sim, as maiores preocupações em torno da Inteligência Artificial versam, invariavelmente, sobre as pessoas. Pode parecer assustador, e de fato é: depois de centenas de anos de civilização, é como se estivéssemos voltando a viver em um mundo sem lei. Cerca de 5 bilhões de pessoas usam a internet no planeta – mais de um terço da população mundial não tem conexão, segundo a Organização das Nações Unidas (ONU).

São 5 bilhões de pessoas à mercê da Gangue dos Bits, dos Senhores da Inteligência Artificial e de Piratas de Banco de Dados. Uma ameaça constante a dois patrimônios imateriais da humanidade: a privacidade e o livre arbítrio.

Não se iluda. Se você está inserido na internet, já não decide totalmente pela sua própria consciência, pelos seus gostos e decisões. Tampouco pode ter segredos, discordar de pessoas muito diferentes de você ou opinar sobre algo ou alguém e sentir-se seguro de que isso ficará entre quatro paredes. Algum sistema inteligente (?) sempre saberá o que você fez nos verões passados e também no presente. E, por que não, indicará o que você deverá fazer no futuro, sem que você se dê conta disso.

Há alguns anos, quando participou do SXSW, em Austin, o líder da Tesla e da SpaceX, Elon Musk, disse que “a Inteligência Artificial é muito mais perigosa do que as armas nucleares”. Ele defendeu a existência de um órgão regulador supervisionando o desenvolvimento da superinteligência.

Para muitos, foi um discurso apocalíptico, mas, a verdade é que muita coisa está em jogo quando se trata dessa tecnologia, e ainda existe pouca clareza sobre os rumos éticos que precisam ser tomados. Esse é sempre um tema quente no festival, que essa semana está sendo acompanhado in loco pelo time do Instituto Caldeira.

Uma das maiores ameaças que o Big Data e a Inteligência Artificial trazem é no que envolve a nossa liberdade de escolha, alerta Patrícia Peck, sócia do Peck Advogados e membro-titular do Conselho Nacional de Proteção de Dados (CNPD).

Em geral, o volume de informações sobre as pessoas acaba sendo utilizado para alimentar algoritmos que, por sua vez, podem vir a orientar ou induzir as tomadas de decisões e até mesmo ampliar ou perpetuar discriminações e preconceitos, diz.

A advogada ressalta, ainda, que a promessa da chamada “smart society”, a sociedade dos objetos inteligentes, pode tanto trazer grande conforto quanto riscos, pois informação é poder. “Como delimitar mecanismos de controle para coibir os abusos no uso da informação que possa ter desvio de finalidade? Por mais que estejamos buscando uma sociedade sem crimes, o que justifica maior vigilância, quem vigia o vigilante?”, pondera a especialista em proteção de dados.

Para ela, há um desejo de flexibilizar a privacidade em prol dos benefícios que isso possa trazer, mas desde que com garantias.

Estamos desenhando um novo modelo, mas para ele dar certo é essencial que haja um compromisso com a transparência, a isonomia e a responsabilização, mas ainda não temos isso claro e definido como deveria”, avalia a advogada.

Uma das tecnologias que mais atenção exige neste sentido é a Inteligência Artificial (IA). Ao empacotar os nossos gostos e comportamentos, acaba replicando preconceitos, explica o pesquisador do Instituto de Informática (INF) da Ufrgs e membro do IEEE, Edson Prestes.

O professor pondera que o que é aprendido pelo sistema é o que se oferece a ele, porque o sistema em si não é preconceituoso, ele só expõe o preconceito presente nos dados. Por isso, é fundamental que as empresas, e seus desenvolvedores, estejam atentos para as implicações éticas da IA.

Esses sistemas só funcionam baseado nos dados, eles aprendem através dos dados. Se fornecermos dados bons, vão aprender coisas boas, se fornecermos dados ruins, vão aprender coisas ruins”, comenta. Uma decisão preconceituosa de um juiz em um determinado caso em em tribunal, se for usada depois como base para a construção dos parâmetros de uma automatização de decisões judiciais por meio de um sistema de Inteligência Artificial, acabará replicando isso de forma perigosa.

Neste cenário, acrescenta o pesquisador, o grande problema é que, ao invés de ter uma pessoa preconceituosa tomando uma decisão preconceituosa, temos um sistema que está operando simultaneamente em diferentes partes do planeta com uma amplificação desse preconceito. “Com isso, a escalada deste pensamento avança muito rapidamente, muito mais do que uma pessoa preconceituosa que vai tentar passar o preconceito para outra pessoa preconceituosa. É um problema de escala”, reforça Prestes.

Entrevista com Patricia Peck. Postado originalmente no blog do Instituto Caldeira.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Esse site utiliza o Akismet para reduzir spam. Aprenda como seus dados de comentários são processados.