O brasileiro médio ainda não confia na I.A.: o que isso significa para a governança e regulação da tecnologia?

Parte do hype atual em torno da inteligência artificial talvez esteja superestimado. Ao menos é o que o brasileiro médio acredita e entende no seu cotidiano, considerando os dados recém-publicados na pesquisa que mediu percepções sobre I.A. para a conferência Brazil Forum UK. O brasileiro médio parece buscar cautela e responsabilidade. Pude debater os resultados apresentados por Mauricio Moura com o ministro do STF Luís Roberto Barroso, a coordenadora do Aláfia Lab Nina Santos e com Juliana Moura Bueno da Google. Assista abaixo e veja os principais dados a seguir.

Em um contexto ainda de aparente inseguranças sobre as tecnologias algorítmicas para tomada de decisão, os brasileiros avaliam que a inteligência artificial, definida de forma ampla, não faz parte plena de sua vida: 43% consideram que usam a IA no dia a dia, 42% não usam e 15% não sabe. Ampla maioria, 70% se sentem confortável com a IA de modo geral, mas só 52% acreditam que traz mais benefícios do que riscos. Os dados parecem ligar um alerta para desenvolvedores, frente a necessidade de construção de confiança com usuários e consumidores.

No contexto regulatório, o levantamento foi lançado em um contexto de decisões chave sobre o futuro da inteligência artificial no país. A Comissão Temporária sobre Regulação de Inteligência Artificial acabou de publicar relatório avaliando o PL 2638/2023, propondo nova minuta que tem engajado diferentes setores. Pelos próximos meses o debate tende a circular entre Senado e Câmara dos Deputados e espaço de incidência política. Os setores da sociedade civil organizada e da pesquisa acadêmica tem buscado apresentar de um lado, dados e evidência, e de outro a pressão da opinião pública sobre a matéria.

Uma das surpresas da minuta foi a afirmação, no relatório da comissão, de que os sistemas biométricos à distância, como o reconhecimento facial usado pela segurança pública, “tem demonstrado que, em regra, esses sistemas não têm potencial para causar dano significativo”. O mapeamento dos danos da vigilância biométrica à distância tem sido realizado nos últimos  anos por institutos de pesquisa, como O Panóptico, e circulada pela sociedade civil como a campanha Tire Meu Rosto da sua Mira. Agora, dados mostram que a população em geral também rejeita a tecnologia: apenas 20% dos brasileiros sentem-se confortáveis com o uso de tecnologias de reconhecimento facial para identificar crimes e suspeitos. Mais da metade sentem-se desconfortáveis: 55% dos respondentes.

De modo geral, os índices de conforto apresentados pela população brasileira sobre diferentes usos de inteligência artificial são muito baixos. Mesmo em áreas críticas como diagnósticos na saúde, há pouco otimismo: apenas 14% acreditam que a IA pode trazer benefícios na área. O dado parece resultar de uma crise de confiança que se expressou no projeto de lei apresentado recentemente. No art. 66 do atual projeto de lei, “promoção da confiança nas tecnologias de inteligência artificial, com disseminação de informações e de conhecimento sobre seus usos éticos e responsáveis”, abrindo margem à questão se é responsabilidade do Estado a promoção da confiança em um tipo específico de tecnologia.

O acúmulo de conhecimento e pesquisa proporcionados por organizações como a Mozilla tem proposto noções de “trustworthy AI” a partir da noção de um esforço multissetorial de balanço de deveres, responsabilidades e possibilidades da tecnologia. Citando o programa por um Trustworthy AI Ecosystem, no caso de desenvolvedores isso significa que ao desenvolver novos softwares, é necessário engajar com desenvolvedores, usuários e pesquisadores com diferentes pontos de vista para alargar as perspectivas. Entender como a IA vai impactar pessoas que pensam de modos diferentes podem fazer os projetos ou produtos muito melhores. Para consumidores, é necessário desenvolver literacia crítica sobre as escolhas realizadas, e assim por diante.

A aparente crise de confiança ou entusiasmo do brasileiro médio sobre inteligência artificial parece dar uma resposta a uma contradição frequente nas fileiras anti-regulação. De um lado, argumenta-se que não seria a hora para regulação de I.A. por ser supostamente uma tecnologia muito nova, cambiante e disruptiva. Mas de outro se argumenta que os benefícios são tantos que não podemos pensar alternativas. Ambas são apenas meias verdades. Apenas se, enquanto sociedade, reconhecermos o acúmulo de décadas de pensamento crítico sobre inteligência artificial – e aplicar efetivamente tal conhecimento em políticas e mecanismos de transparência, mitigação e reparação – um rechaço público à I.A. não vai ganhar ainda mais corpo.

A pesquisa também confirma que os brasileiros já entendem que não basta apenas a declaração de princípios éticos. São 73% que afirmaram categoricamente “Sim” sobre a necessidade de criação de regras para o uso de IA e apenas 12% “Não” – menor que a taxa de pessoas que não sabem, 15% ao todo. O acúmulo de questões sobre a interseção da inteligência artificial com camadas interseccionais de direitos humanos é um dos desafios de sustentabilidade da relação desenvolvedores e público geral.

Nesse sentido, uma questão controversa que a sociedade civil brasileira aponta no atual projeto de lei é a assimetria sobre produção de evidências em relação aos danos algorítmicos. A produção de evidência sobre os danos objetivos está parcialmente sob responsabilidade das pessoas afetadas, o que é problemático considerando a assimetria de poder e acesso aos dados e informações entre desenvolvedores e usuários, ainda mais considerando que muitas plataformas tentam evadir responsabilidade de transparência e mesmo buscam descreditar pesquisadores.

Em um ano no qual o Brasil está no holofote de debates sobre questões ligadas a inteligência artificial, integridade da informação e infraestruturas digitais graças à presidência do G20 e grupos de engajamento, os formuladores de políticas públicas e todos stakeholders interessados enfrentem um desafio gigantesco. Promover o uso e desenvolvimento de inteligência artificial confiável em um país desigual e do Sul Global envolve também angariar a confiança da população: e os dados parecem demonstrar consumidores e cidadãos já calejados.