Texto de Becca Ricks e Mark Surman,
publicado no documento Creating Trustworthy AI
O ambiente computacional predominante numa determinada época molda o que as pessoas pensam que é possível e, por sua vez, quais as tecnologias que construímos.
Quando o computador pessoal se tornou popular nos anos 80, assistimos à invenção de planilhas digitais e processadores de texto e, com estas invenções, a transformação do local de trabalho. Quando a Web se tornou amplamente acessível no final dos anos 90 e início dos anos 2000, os navegadores e, eventualmente, os programas baseados na nuvem tornaram-se onipresentes, o que levou a grandes mudanças na forma como divertimo-nos, colaboramos com colegas e fazemos negócios.
O ambiente digital atual é cada vez mais moldado pela IA e pelos dados que a alimentam. De sistemas de de recomendação, filtros de correio eletrônico inteligentes e texto preditivo, os sistemas alimentados por IA têm se tornado ubíquos na nossa sociedade moderna. As normas sobre a forma como a IA é desenvolvida transformam quais os tipos de ferramentas, plataformas e experiências que decidimos construir. Na medida em que grande parte das nossas vidas se torna digital, continuaremos a ver estas normas moldarem a nossa vida cotidiana.
Por exemplo, uma norma atual é que as empresas desenvolvam produtos e serviços que coletem
o maior número possível de dados sobre as pessoas e, em seguida, utilizar modelos sofisticados para analisar esses dados e proporcionar experiências personalizadas. Os resultados deste padrão podem, por vezes, ser encantadores: o Spotify sugere músicas de que gostamos e a funcionalidade de preenchimento automático do Gmail termina as nossas frases. Mas os resultados também podem ser prejudiciais: há provas de que os motores de recomendação de vídeos como o YouTube, que otimiza o algoritmo para gerar engajamento, lucra ao apresentar às pessoas cada vez mais pontos de vista extremos. Além disso, foi demonstrado que os anúncios direcionados no Facebook manipulam as pessoas e excluem as comunidades vulneráveis.
Outro padrão computacional é que as empresas com acesso ao maior número de dados têm uma vantagem competitiva no panorama da IA, incentivando uma ainda maior coleta de dados. As big tech têm uma vantagem desproporcional sobre as concorrentes menores e as pessoas que utilizam a tecnologia. Empresas menores tornam-se incapazes de acessar dados suficientes para competir nas áreas de personalização ou recomendação, e as pessoas ficam muitas vezes presas a uma só plataforma.
Como estes dois exemplos ilustram, os nossos paradigmas actuais para a construção de tecnologia limitam o que podemos pensar ser possível. E se ajustássemos radicalmente estas normas no desenvolvimento da IA? Como seria se as pessoas tivessem um maior controle sobre os dados coletadods a seu respeito? Que tipos de processos e ferramentas na cadeia de desenvolvimento da IA conduzirão a uma maior responsabilização?
Se o nosso ambiente computacional atual não está funcionando então temos de inventar um novo. Se as pessoas sentem que não têm o controle dos seus próprios dados, podemos incentivar as empresas a criar tecnologias que dão mais poder de ação às pessoas. Alterando as regras relativas à forma como os dados são recolhidos e armazenados, podemos favorecer a participação de empresas menores. Ao imaginar novos processos para a forma como a tecnologia é desenvolvida, podemos moldar as plataformas, ferramentas e produtos que reforçam o bem-estar coletivo.
Mudanças como estas são necessárias se quisermos uma IA que fortaleça – em vez de prejudicar – a sociedade e comunidades.