A inteligência artificial (IA) entrou em todos os aspectos da nossa vida. A decisão de quem é contratado, despedido, beneficia de um empréstimo ou recebe cuidados médicos é cada vez mais feita  por algoritmos. Muitos vêem a IA como a nova pedra angular de um futuro tecnocêntrico brilhante,  que melhora a eficiência e a produtividade e permite que as pessoas se concentrem em tarefas mais criativas e interessantes. Para estes optimistas, a IA pode trazer grandes benefícios a áreas tão diversas como os cuidados de saúde, as finanças e a educação. No entanto, atualmente, os algoritmos de IA não conseguem, por vezes, generalizar situações fora dos seus dados  de treino. Assim, em sectores onde a composição dos dados e os comportamentos mudam ao longo do tempo, a qualidade das previsões pode diminuir. No contexto de profissões especializadas, como a medicina, a investigação mostrou como os médicos, mesmo que inicialmente fossem adeptos, acabaram por não utilizar a IA devido a erros constantes do sistema. Além disso, em alguns casos, apesar das alegações de um sistema alimentado por IA, o trabalho é feito por seres humanos mal pagos, muitas vezes baseados no “Sul Global”. A história de trabalhadores quenianos mal pagos que limpam dados para a OpenAI (e outras grandes empresas tecnológicas), revelada pelo The Times em 2023, é apenas uma entre muitas outras,

Em contraste com os tecno-utópicos que acreditam num admirável mundo novo alimentado pela IA, os tecno-distópicos salientam os riscos que os algoritmos de IA representam para a privacidade, a inclusão, a equidade e a liberdade. Os últimos consideram que estas tecnologias ameaçam a nossa capacidade de atuar como pensadores críticos e criativos. Nesta visão distópica, os algoritmos das grandes empresas tecnológicas permitem um pan-óptico em que o Big Brother é poderoso e manipulador, mas em grande parte invisível. A investigação mostrou como os sistemas algorítmicos reflectem preconceitos nos dados, nos pressupostos de conceção e nas práticas de implementação. É preocupante imaginar a sua influência no policiamento preditivo, na justiça criminal, nas plataformas e processos de contratação, bem como o seu papel na amplificação de ideias políticas através dos meios de comunicação social – sem mencionar os custos humanos e a exploração de trabalho mal pago em torno da IA, que vieram recentemente à tona.

Curiosamente, quer a IA seja vista como boa ou má, há uma sensação de que é inevitável e que temos de a aceitar “tal como é”. Gostaria de propor uma outra perspetiva, uma perspetiva em que podemos, e de facto devemos, fazer escolhas. O Frankenstein de Mary Shelley fornece-nos uma excelente metáfora. De facto, a criatura do romance de Shelley não é um bruto malvado e irrefletido, mas foi colocada no mundo por um criador humano incapaz e sem vontade de reconhecer e assumir a responsabilidade pela sua criação. Frankenstein não é o nome da criatura, mas sim o do seu criador, Victor Frankenstein. Este facto convida-nos a questionar quem é realmente o monstro da relação e sublinha que o papel dos inventores e dos seus valores não pode ser ignorado. Frankenstein ultrapassa os limites da ciência para criar “vida”, mas a sua incapacidade de apreciar as implicações da experiência vivida pela sua criação resulta num híbrido monstruoso. Assim, a criação de Shelley sugere que o monstro é potencialmente perigoso, apenas se não for cuidado.

Do mesmo modo, devemos questionar a origem dos preconceitos dos algoritmos de IA, reflexos dos preconceitos da nossa sociedade. A IA é concebida e desenvolvida por seres humanos, que têm os seus próprios preconceitos, e são alimentados com dados produzidos por nós, que reflectem os nossos preconceitos. Por isso, embora a IA possa criar muitas oportunidades, se a nossa tecnologia algorítmica não for bem pensada, não for cuidadosamente concebida e cuidada, pode tornar-se monstruosa como a criatura de Frankenstein. E isto não é apenas da responsabilidade dos profissionais de tecnologia; a IA, como qualquer tecnologia, é construída socialmente. Está integrada num sistema alargado, desde a sua conceção e desenvolvimento até à sua implementação e utilização, e é o resultado de decisões tomadas por pessoas. Por conseguinte, há acções que podemos tomar para garantir que a IA seja construída e implementada de forma a não discriminar as minorias e a proteger os direitos do público. Não podemos simplesmente delegar a responsabilidade na tecnologia ou deixar que sejam os programadores ou as grandes empresas de tecnologia a tomar decisões sobre o que pode ser construído e implementado. Uma IA fiável começa com práticas de avaliação que são obrigatórias por leis e normas do sector. Todos nós, implementadores, gestores, decisores políticos, utilizadores, bem como designers e programadores, devemos ser responsáveis pela tecnologia implementada e fazer perguntas, mesmo as mais difíceis, tais como: a quem pertencem os dados, que dados serão utilizados, como e quem estará envolvido e quem poderá ser discriminado ou excluído? Em alguns casos, podemos aperceber-nos de que um sistema de IA não é a melhor solução e podemos decidir não implementar um determinado sistema num determinado contexto.

PUB • CONTINUE A LER A SEGUIR

Para que a IA se torne uma contrapartida, é importante que alarguemos a conversa actual entre os profissionais de tecnologia – que se centra na velocidade, nas correcções técnicas e na última versão – para uma conversa interdisciplinar. Temos de incluir todos os utilizadores e comunidades afectadas para refletir sobre as práticas sociais, as normas culturais e o contexto em que a tecnologia está integrada. Isto significa também incluir filósofos, psicólogos, historiadores, políticos, antropólogos e artistas. Só com estas conversas, em que enfrentamos as nossas responsabilidades (ao contrário de Victor Frankenstein), é que podemos melhorar a conceção do sistema, aumentar a transparência, expôr a discriminação e criar resultados mais positivos para todos.

Anne-Laure Fayard é Presidente da Cátedra ERA em Inovação Social na NOVA School of Business and Economics e professora visitante de investigação na New York University (NYU). Os seus interesses de investigação envolvem colaboração, tecnologia, inovação e design. A sua investigação foi publicada em várias revistas académicas de referência, bem como na Harvard Business Review. Escreveu vários artigos sobre o significado do trabalho, a integração da IA nas organizações e a “colaboração” com a IA. O seu trabalho tem sido destacado nos principais jornais, como o New York Times, o Financial Times e o Economist.