Após o Conselho de Administração da OpenAI despedir Sam Altman, acusando-o de “não ser consistentemente sincero“, muitos colaboradores da empresa criadora do ChatGPT apresentaram a demissão ou ameaçaram fazê-lo caso o seu CEO não fosse readmitido.
Observando um bom resumo do sucedido, percebe-se a tensão existente na OpenAI, entre os colaboradores que defendem o rápido desenvolvimento da Inteligência Artificial (IA), e os que preferem avançar mais lenta e cautelosamente. Quem poderia ter ficado a ganhar com esta disputa seria a Microsoft; numa reviravolta surpreendente, a principal financiadora da OpenAI esteve quase a contratar Sam Altman no próprio fim-de-semana em que este foi despedido, num regresso ambicionado pelos investidores daquela que é a área de negócio mais promissora da atualidade. No entanto, a OpenAI resolveu “readmitir” o seu CEO, sendo razoável esperar que Altman aceite e contribua para escolhas estratégicas acertadas sobre o que fazer com uma tecnologia tão poderosa; nas palavras de Sam Altman, “[o ChatGPT-4] é uma ferramenta que está largamente sob controlo humano. Aguarda que alguém lhe dê uma entrada, e o que é realmente preocupante é quem tem controlo dessas entradas.” É difícil não concordar com estas palavras, sendo que a IA está a mudar o mundo a uma velocidade nunca observada, aconselhando a que estejamos todos especialmente atentos à forma como ela é governada.
Paralelamente, na mesma semana, Elon Musk fez um comentário “inapropriado” na rede social X (anteriormente Twitter), levando a um boicote por parte de anunciantes importantes que agora ameaçam de “cancelamento” o homem mais rico do mundo, inclusivamente apelando ao seu afastamento de empresas que ele próprio criou. Isto leva-nos diretamente ao cerne da questão.
Tanto na IA como nas redes sociais, é perigoso optar por modelos de negócios que dependem da exploração dos dados dos utilizadores, sobretudo quando entram em cena algoritmos sofisticados que aprendem a influenciar comportamentos. Não é coincidência o Facebook ter suprimido há muito o botão “não gosto”, estando hoje todos os polegares desta rede social apontados para cima; só existe o botão “gosto” porque a intenção é promover apenas reações positivas, capitalizando no facto de as pessoas preferirem ter razão e desejarem, sobretudo, ser apreciadas. Os algoritmos deste modelo de negócio aprendem como alimentar tal sedução e “monetizar” a atenção dos utilizadores através da publicidade.
É por isso que os modelos de negócio das redes sociais promovem conteúdos que polarizam e alienam os utilizadores, pintando um mundo unidimensional apenas com o que agrada a cada um deles ou valida as respetivas crenças. Fazem-nos ignorar que os partidos dos outros também podem ter boas ideias, esquecer que os clubes dos outros também podem ter bons jogadores, e que as outras religiões também podem ter os seus fiéis. Incentivam-nos a fazer generalizações injustas e perigosas, retratando uma realidade simplista e conveniente. Infelizmente, as coisas podem não ficar por aqui, pois, com a IA, os algoritmos dos modelos de negócio publicitário tornam-se potencialmente mais nefastos, podendo intensificar estereótipos e conduzir a uma sociedade onde a divergência será sistematicamente reprimida com o “cancelamento”.
Felizmente, existem líderes capazes de antecipar soluções para os desafios da atualidade: Sam Altman compreende bem as potencialidades da criptografia avançada e demonstra querer proteger a humanidade contra os riscos da IA, por exemplo apadrinhando o projeto global Worldcoin; Elon Musk, para além de tentar precaver a extinção da humanidade, tornando a espécie humana multiplanetária, deu um passo de gigante na defesa da liberdade de expressão, alterando o modelo de negócio do Twitter para um sistema de subscrições na rede X (contra a opinião de muitos), para reduzir a dependência da publicidade e a influência dos anunciantes. Assim, graças a estas e outras mentes brilhantes, podemos ter esperança no futuro e impedir que a inteligência artificial se traduza no cancelamento da inteligência natural.