Estes dispositivos não oferecem uma resposta mecânica como quando se carrega num interruptor elétrico, mas comportam-se de forma “robótica”, assemelhando-se à inteligência humana básica: nas nossas casas temos robôs que limpam, câmaras e detetores de segurança que alertam para uma intrusão, luzes ou equipamentos de aquecimento que se ligam de acordo com um padrão, e até mesmo frigoríficos que são capazes de gerar a lista de compras de alimentos para a casa com base no que aprendeu sobre os nossos gostos. Foi criado um novo termo, “internet das coisas”, para se referir a todos os dispositivos conectados e que interatuam entre si.
Estes dispositivos, a que chamamos inteligentes, são controlados por meio da chamada inteligência artificial, baseada na recolha massiva de dados (“big data“) e aprendizagem automática, beneficiando da velocidade superior de cálculo dos computadores em comparação com a dos humanos, para tomar decisões baseadas numa enorme quantidade de elementos. Ao manusear milhões de dados, podem ter em conta múltiplos fatores que, por vezes, passariam despercebidos ou que levariam muito tempo a analisar, por forma a oferecer-nos uma solução. Aparentemente funcionam de uma forma mais eficiente do que a nossa mente.
Desta forma, depositamos a nossa confiança nos resultados oferecidos pelo motor de busca do Google para qualquer pergunta que façamos, nas sugestões de filmes e séries que gostaríamos de comprar na Netflix, nos artigos que gostaríamos de comprar na Amazon, nos amigos com quem contactamos no Facebook ou nas pessoas com quem nos queremos relacionar no Tinder.
Estas soluções ou sugestões são determinadas por uma programação complexa baseada em algoritmos. Um algoritmo é um conjunto de instruções ou regras que fornecem uma atividade através de passos sucessivos e bem definidos. O que antes eram regras simples de cálculo, é agora resolvido com inteligência artificial, o que nos dá a impressão de ter alguém ao nosso lado, mais inteligente e que nos dá os melhores conselhos.
Por vezes, a lógica dos algoritmos complexos é indecifrável, de tal maneira que nem os seus designers compreendem completamente como funcionam. No Facebook, por exemplo, não há forma de saber ao certo porque razão uma história específica aparece entre as mais recentes. Com estes algoritmos não é possível determinar se uma decisão resultou de um raciocínio lógico ou foi produzida por um algoritmo que interage com outros sistemas automatizados inesperadamente e sem supervisão humana.
Por outro lado, os algoritmos e sistemas de aprendizagem automática podem usar dados parciais, incompletos ou defeituosos, pelo que as máquinas tomarão decisões com base em informações incorretas ou num enviesamento do seu programador.
Estamos rodeados de forças invisíveis, mas poderosas, que nos vigiam a partir de dispositivos espalhados pelas nossas casas, inclusive até colocados nos nossos corpos, e essas forças compilam ansiosamente dossiês detalhados sobre cada um de nós. Transmitem o conteúdo destes dossiês a intermediários obscuros, que usam tudo o que aprendem para determinar a estrutura das oportunidades que nos são dadas ou, pior ainda, que não nos são dadas. Oferecem-nos empregos, ou não; empréstimos, ou não; amor, ou não; saúde ou não. E o pior, é que até ao dia da nossa morte, nunca saberemos que ação ou inação nos levou a algum destes resultados.
Há outro risco ainda mais perturbador: à medida que os algoritmos desenvolvem a capacidade de tomar decisões em situações complexas, os seres humanos serão substituídos por máquinas mais eficientes, mais baratas ou que realizam trabalhos pesados ou perigosos. Isto pode levar a uma perda no julgamento humano, à medida que as pessoas se tornam dependentes dum software que pensa por elas. Os seres humanos passarão a ser considerados inputs no processo e não seres reais, ficando assim marginalizados. A delegação excessiva em máquinas baseadas na inteligência artificial pode enfraquecer-nos a longo prazo, uma vez que já não é necessário ser forte, qualificado ou inteligente.
Como dissemos, os algoritmos de inteligência artificial são aplicados à gestão de qualquer sistema complexo, desde a direção e orientação de um carro até à formulação de políticas públicas.
Cedemos grande parte do poder de decisão a algoritmos sofisticados, não apenas na hora de fazer uma compra ou assistir a um filme de entretenimento. Os algoritmos de previsão de risco controlam quem pode receber um empréstimo, a pessoa válida para um emprego e mesmo quem estaria coberto por um seguro de saúde que não represente grandes perdas para a seguradora.
As agências governamentais também estão a tomar cada vez mais decisões automatizadas com base na recolha de informações digitalizadas sobre indivíduos, e usando algoritmos matemáticos catalogam o seu comportamento passado e avaliam o seu risco de participar em comportamentos futuros. Assim, por exemplo, são utilizados algoritmos para determinar quais os bairros sujeitos a vigilância policial, que famílias recebem ajuda pública ou quem se investiga por fraude.
No caso da manutenção da ordem pública, esta capacidade é conhecida como vigilância policial preditiva. O objetivo é que, equipados com um conjunto suficientemente rico de dados sobre incidentes passados, os departamentos de segurança pública possam prever os pontos mais propensos à prática de crimes, e até mesmo de criminosos individuais, com um elevado grau de precisão e com antecipação suficiente para que qualquer crime real possa ser evitado.
As aplicações utilizadas no policiamento preditivo, como o Snaptrends e o SpatialKey, são capazes de geolocalizar e analisar o que as pessoas dizem nas redes sociais, de forma a extrair delas inferências significativas. Através de comentários odiosos no Facebook ou publicações positivas no Instagram, os pretensos criminosos deixam muitas vezes uma cadeia de pistas nas redes sociais, que podem ser usadas para antecipar a prática do crime.
O inconveniente é que esta vigilância preditiva, que parece antecipar o futuro, baseia-se na recolha de dados do passado. Um bairro em que se tenha verificado um aumento significativo da criminalidade grave pode tornar-se o foco do patrulhamento intensivo, pelo que haverá uma deteção de crime acima da média na cidade, o que levará a um novo reforço do policiamento. Um adolescente desta “zona de conflito” que em algum momento comete uma transgressão menor, normalmente não considerada crime, pode ser perseguido pela polícia. A partir daí, terá antecedentes criminais e será com frequência identificado como suspeito de cometer um novo crime, mesmo quando há outras pessoas mais inclinadas a comportamentos criminosos, ou com crimes mais graves para a sociedade, mas que fogem à deteção porque não é revelado por nenhum algoritmo.
Podemos facilmente ensinar um algoritmo a reconhecer a realidade que nos rodeia. Pode ser capaz de identificar, com graus de precisão cada vez mais subtis, um carro, um carro da polícia, um carro da polícia de Nova Iorque. Isto não é difícil. Mas como ensinamos um algoritmo a reconhecer a pobreza?
Com os algoritmos podemos acreditar que adotamos novas formas de resolver problemas sociais usando a tecnologia, como se fosse uma forma mais eficiente e racional. O problema é que, no seu âmbito, são tomadas decisões políticas, que têm consequências políticas, sobre a forma de gerir a falta de igualdade. E isto pode ser simplesmente uma desculpa para controlar a sociedade.Para concluir, podemos mudar a forma como estes sistemas funcionam e construir tecnologia para as pessoas. É necessário um projeto e desenvolvimento ético, de algoritmos. Mas não basta educar engenheiros ou pedir ao Facebook para ser mais respeitoso, nem esperar que as instituições, os governos e os poderes tenham um maior controlo. É necessário que a mudança ocorra na sociedade e que, perante este tipo de situações, se diga que “isto não é aceitável”. Uma regra de ouro para avaliar os algoritmos poderia ser perguntar se aumentam a dignidade e a autodeterminação das pessoas.
Imagem capa
Link: https://pixabay.com/pt/photos/hacker-ataque-mascarar-internet-2883632/
Licença: Pixabay license
Imagem no artigo
Link: https://unsplash.com/photos/NDfqqq_7QWM
Photo by Chris Liverani on Unsplash
Licença: Unsplash license