Supervalorização e demonização da "inteligência artificial"

Em anos recentes, a aceleração da velocidade e capacidade dos microprocessadores viabilizou o relançamento de técnicas de modelagem de sistemas de há muito conhecidas, tais como as de análise estatística e de redes neurais artificiais, agora podendo manejarem grandes bases de dados sob o novo ambiente de conectividade da internet.

Dentro da revolução informacional digital em curso, iniciada no último quarto do século XX, parece estar-se abrindo agora um ciclo de inovações mediante novas combinações de tecnologias. E a grande “estrela” do momento chegou ao senso comum das pessoas sob a denominação geral de “Inteligência Artificial - IA” , algoritmos que “aprendem” mediante a interação com uma variedade de ambientes, sejam eles, físicos, de outras máquinas, ou humanos.

O feliz artigo da Profa. Dora Kaufman, a seguir, apresenta-nos com casos ilustrativos bem esclarecedores, uma visão crítica de como se tem difundido as informações sobre “Inteligência Artificial - IA”. A complexidade e a opacidade dos sistemas favorecem a especulação sobre o alcance e consequências sociais dessas inovações. Nas palavras da autora: “Evitando supervalorizar ou demonizar a IA, o desafio é conhecer o funcionamento e a lógica da tecnologia para aproveitar os benefícios e mitigar os riscos”.

Serão tais desenvolvimentos portadores de virtualidades emancipatórias para a humanidade? 

____________________________________

Supervalorização e demonização da inteligência artificial - desviam a atenção dos danos reais e comprometem os benefícios*.

Dora Kaufman**

Outubro - 2021

Caetano Veloso canta os algoritmos de inteligência artificial (IA). Após nove anos de seu último álbum inédito, Abraçaço (2012), Caetano lança o álbum autoral Meu Coco (2021), com destaque para a canção 'Anjos Tronchos': "Agora a minha história é um denso algoritmo, que vende venda a vendedores reais / Neurônios meus ganharam novo outro ritmo / E mais e mais e mais e mais e mais [...]”. Inspirar um dos maiores expoentes da música brasileira reflete a relevância atual da IA. Conhecer seus fundamentos, contudo, é importante para evitar supervalorizar e demonizar uma tecnologia, ainda em seus primórdios, e com tantos benefícios à sociedade.

Kai-Fu Lee, em novo livro, coautoria com o escritor de ficção científica Chen Qiufan (AI 2041: Ten Visions for Our Future, 2021), observa que as pessoas confiam em três fontes para aprender sobre IA: ficção científica, notícias na mídia e pessoas influentes. Todas fontes que, em geral, carecem de rigor científico. Num formato original, o livro projeta cenários fictícios a partir de um “mapa de tecnologia” montado com base em pesquisas científicas e possíveis externalidades (desafios, regulamentações, conflitos e dilemas). Para Lee, após uma evolução lenta por décadas, nos últimos cinco anos a IA se tornou a tecnologia mais avançada do mundo. Contudo, a complexidade e a opacidade dos sistemas favorecem a especulação. O carro autônomo ilustra bem a lacuna entre expectativa e realidade.

Cinco anos atrás, praticamente, todos os principais fabricantes de veículos motorizados e empresas de alta tecnologia previram a implantação generalizada de sistemas de direção automatizada até 2020, previsão replicada pela mídia mundo afora. Steven Shladover, engenheiro especializado e um dos fundadores do Partners for Advanced Transportation Technology (PATH) - programa líder em pesquisa de Sistemas Inteligentes de Transporte da Universidade da Califórnia, Berkeley -, em artigo recente, vaticina: "As operações automatizadas só serão viáveis durante os próximos anos dentro de condições estreitamente definidas. Devemos esperar algumas implementações limitadas de caminhões automatizados de longa distância em rodovias rurais de baixa densidade e entrega local automatizada de pequenos pacotes em ambientes urbanos e suburbanos durante a década atual. Serviços automatizados de caronas urbanas e suburbanas também podem se tornar disponíveis de forma limitada, mas os desafios específicos do local para sua implantação são suficientes para que seja improvável que atinja uma escala nacional em breve”.

O protagonismo da IA em processos eleitorais é outro mito. Yochai Benkler, professor da escola de direito na Universidade de Harvard, Robert Faris e Hal Roberts realizaram um dos mais completos estudos sobre as eleições americanas de 2016, publicado, em 2018, no livro “Network Propaganda: manipulation, disinformation, and Radicalization in American Politics”. Os autores concluíram que a eleição de Donald Trump decorreu mais da dinâmica do ecossistema de mídia dos EUA e da polarização política assimétrica do que por sistemas comerciais de publicidade. Segundo os autores, “a publicidade psicograficamente microdirecionada da Cambridge Analytica é altamente improvável de ter feito diferença na campanha de 2016”, e alertam para a tendência dos analistas em atribuir à responsabilidade de problemas históricos da sociedade, por ser o elemento novo mais visível, às tecnologias digitais.

É inestimável a contribuição de Shoshana Zuboff no entendimento do modelo de negócio baseado em dados (“data-driven models”) e algumas de suas consequências. Militante contra o poder das big techs, seu livro “The Age of Surveillance Capitalism: The fight for a human future at the new frontier of power” (2019) é permeado de afirmações contundentes - “exploração dos dados comportamentais para ler as mentes dos usuários tornando possível saber o que um determinado indivíduo em um determinado momento e lugar estava pensando, sentindo e fazendo” - , contudo, em sua maioria, não explicita as evidências (fundamento de qualquer pesquisa empírica crível) e/ ou não explicita as amostras base das pesquisas (parte significativa das amostras são de perfis “Weird” - Western, Educated, Industrialized, Rich, Democratic - ou seja, enviesada). Conhecer o “consumidor target” para influenciar suas escolhas é a essência da propaganda, que há décadas migrou o foco da funcionalidade do produto (“valor de uso”) para o desejo e a emoção do consumidor; o que precisa ser investigado, com metodologias científicas, é a mudança de natureza derivada da coleta e mineração de dados em larga escala, ou seja, a natureza da disrupção (partindo do pressuposto que ela existe).

O historiador Yuval Harari (“Homo Deus: Uma breve história do amanhã”, 2016) afirma que no século XXI, a partir de bases de dados gigantescas e poder computacional inédito, os algoritmos “sabem não apenas como você se sente, como sabem 1 milhões de outras coisas a seu respeito das quais você mal suspeita”. Harari, igualmente, não revela a fonte dessas afirmações. Pode ser que sejam verdadeiras, pode ser que não, o ponto é que essas afirmações, ditas por autores de referência, são replicadas sem o devido questionamento: alguém conhece uma pesquisa empírica qualificada (método científico, extensa base de dados) que confirme tamanho poder e influência dos algoritmos de IA sobre a decisão dos indivíduos e, particularmente, sobre a formação da subjetividade humana?

Ao condenar o uso da IA com foco nas externalidades negativas, eliminamos, simultaneamente, as externalidades positivas. A arquitetura de redes neurais GAN (Generative Adversarial Network), por exemplo, é combatida por gerar as chamadas “Deep Fakes”, mas elas têm potencial de contribuir positivamente em outras áreas, como na saúde. Diferente da CNN (Convolutional Neural Network) - arquitetura de rede neurais aplicada em visão computacional para identificar e classificar objetos -, a GAN cria imagens bi ou tridimensionais (imagem, voz, vídeo) possibilitando, por exemplo, criar dados sintéticos de qualidade, suprindo a carência de dados para pesquisas médicas, e melhorar uma imagem de tomografia computadorizada e/ou ressonância magnética em baixa resolução (menos tempo de exposição, protege o paciente de altas doses de radiação).

A técnica que permeia quase todas as implementações de IA hoje, chamada de redes neurais profundas ou deep learning, é “apenas” um modelo estatístico de probabilidade com aplicação restrita ao desempenho de tarefas específicas (previamente determinadas). Como todos os modelos estatísticos de probabilidade, existe uma variável de incerteza intrínseca, produzem conhecimento provável, mas inevitavelmente incerto. A personalização é com base em "clusters", não é individual, agrupa conjunto de usuários com perfis similares. A capacidade preditiva desses modelos decorre de variáveis pré-estabelecidas pelos desenvolvedores, logo incorpora a subjetividade humana; seus algoritmos são treinados em bases de dados, em geral, tendenciosas; e a visualização dos resultados nem sempre é trivial de ser assimilada pelos usuários. Ou seja, são modelos limitados sem essa suposta objetividade e precisão.

Evitando supervalorizar ou demonizar a IA, o desafio é conhecer o funcionamento e a lógica da tecnologia para aproveitar os benefícios e mitigar os riscos.

LEIA TAMBÉM:

Homo Deus Não

SAPIENS – Harari,Marx e Engels

__________________________________

 (*) Originalmente publicado em Época Negócios, 01 de outubro – 2021

(**) Dora Kaufman professora do TIDD PUC - SP, pós-doutora COPPE-UFRJ e TIDD PUC-SP, doutora ECA-USP com período na Université Paris – Sorbonne IV. Autora dos livros “O Despertar de Gulliver: os desafios das empresas nas redes digitais”, e “A inteligência artificial irá suplantar a inteligência humana?”. Professora convidada da Fundação Dom Cabral.

SIGA-NOS NO TWITTER

SIGA-NOS NO INSTAGRAM