Índice
Índice
“Os humanos não vão sair de moda.” A afirmação é de Cassie Kozyrkov. A cientista de dados sul-africana e CEO da agência de apoio à decisão Data Scientific, não alinha no coro pessimista que se instalou em Lisboa nos últimos dias no que toca à inteligência artificial (IA). O futuro ainda é das pessoas, acredita. Foi essa a visão que veio partilhar à Web Summit, contra os ventos e marés de desconfiança que sopram no Parque das Nações.
“Acredito que vai haver tanto ainda para todos nós fazermos – doenças para curar, alterações climáticas para resolver”, sublinhou. Vamos é precisar de recalibrar competências para garantir que a IA não ganha rédeas demasiado soltas ao ponto de se tornarem perigosas. “Temos de começar a pensar na confiança e no que é que significa confiar num software, perceber como é que se testam” as capacidades, argumentou a antiga cientista líder de decisão na Google, numa sessão centrada num dos tópicos que mais conversa gera quando se fala em inteligência artificial (IA): corremos o risco de ser substituídos no nosso local de trabalho?.
O lançamento público do ChatGPT tomou o mundo de assalto há um ano e transformou-se no que já é descrito como o “momento iPhone” da IA, ou seja, quando passou a ser um conceito familiar para uma grande franja da população. Trouxe para a ribalta a IA generativa, que tem a capacidade de gerar textos ou imagens a partir de pedidos simples, escritos em linguagem natural.
A IA não é um tema novo na Web Summit mas, com toda a atenção dada à corrida para liderar na tecnologia generativa, assume o papel mais relevante nas temáticas da edição de 2023, ao ponto de haver um palco apenas para a IA. No entanto, na lista de oradores não há sinal de alguns dos nomes mais sonantes na corrida – OpenAI, Anthropic, Microsoft ou Google (a última decidiu deixar de participar devido ao boicote ao evento). Em praticamente todos os palcos ouvem-se discussões sobre o impacto da IA – na moda, nos media, nos processos de negócio e, claro, a nível social.
Como é que se regula algo em constante mudança?
Para muitos dos oradores, é ponto assente que vamos ter de aprender a conviver com as rápidas alterações trazidas pelo desenvolvimento da IA. Por exemplo, só a OpenAI já vai no segundo lançamento este ano de um modelo para alimentar o ChatGPT.
Dona do ChatGPT lança modelo “turbinado”: vem aí o GPT-4 Turbo, que já inclui informação de 2023
A diferença é que, ao contrário do que aconteceu com outros “booms” no mundo da tecnologia, que prosperaram com uma mão mais ou menos leve da regulação, a pergunta que está nas bocas de toda a gente é como é que vai regular-se a IA. Meredith Whittaker, presidente da Signal, defendeu que é “preciso pensar” em “corrigir os pecados dos anos 90”.
“A administração Clinton tentou e falhou em regular a internet”, lembrou, pedindo que a mesma situação não se repita com a IA. Fez questão de lembrar que a IA “requer imensos dados” e criticou uma indústria que já se tornou “fundamentalmente concentrada” nas mesmas empresas. “Se são uma startup de IA sabem quem é o responsável pela vossa infraestrutura”, dando exemplos como a Amazon Web Services ou a Microsoft. “Ou então usam um grande modelo de linguagem que também foi desenvolvido” por alguma dessas empresas.
Whittaker tem, para já, uma certeza: não devem ser as tecnológicas que vão ser alvo de regulação a contribuir para as regras do jogo. “Vimos isto na conferência de inteligência artificial, no Reino Unido”, que decorreu no início de novembro. “Estavam as tecnológicas na sala a regular as tecnológicas.”
Andrew McAfee, investigador principal do MIT, não se centrou nas críticas às tecnológicas, mas sim nas visões opostas que, por agora, parecem existir em relação à forma de regular a IA, a permissionless innovation, uma inovação que não pede permissões, em tradução livre, e a upstream governance, uma espécie de regulação a montante. O quadro regulatório para a AI, que está a ser discutido na União Europeia, é um exemplo de regulação a montante.
“De alguma forma, as duas filosofias parecem incompatíveis”, destacou. Confessou ser mais seguidor da inovação que não pede licença para desenvolver soluções e resolver problemas. “O futuro é cada vez mais incerto e as soluções vão surgir de lugares inesperados”, defendeu. Por isso, transmitiu que teme um cenário onde ter regras mais rígidas, ainda durante o desenvolvimento da IA, possa travar o desenvolvimento de soluções mais inovadoras.
No entanto, não apresentou uma conclusão sobre o caminho a seguir para se chegar à solução, mas avisou que em qualquer um dos cenários “vamos ter turbulência”.
ChatGPT é uma “revolução sem precedentes” da qual é preciso desconfiar
Cassie Kozyrkov passou pelo palco principal da cimeira para pedir que sejamos mais desconfiados em relação à IA. A antiga cientista líder de decisão na Google, que descreve o gerador de imagem Midjourney como “o seu casino favorito”, explicou que não é por a IA contribuir para o trabalho, acelerando tarefas, que os humanos devem retirar-se por completo dessas tarefas.
“São os humanos que têm de fazer juízos [de valor]” sobre os resultados. “O humano está a usar a IA como uma ferramenta”, lembrou. “Com o ChatGPT podem pedir qualquer coisa e depois obter os resultados”, reconheceu. “É uma revolução sem precedentes na experiência de utilização.” Mas também pediu uma dose de bom senso. “Podem ficar muito impressionados quando veem demonstrações em palcos como este. Mas têm de continuar a insistir até chegarem à vossa zona de desencanto. Porque, como qualquer tecnologia, vai cometer erros. Continuem a insistir.”
A produtividade é importante no trabalho, admitiu, mas assumir responsabilidade pelo trabalho feito com IA também. “Têm de assumir a responsabilidade pelo vosso resultado. Não vão culpar o portátil, não é a lógica de ‘o cão comeu o meu trabalho de casa’.”
Preferiu transmitir que é altura de começar a pensar no que significa ter uma relação de confiança e “o que significa testar um software”. “Infelizmente estamos a ir tão longe com isto que percebemos que não temos bons procedimentos ou planos” para conseguir avaliar os resultados que se recebe. Na argumentação de Cassie Kozyrkov, isso só vai funcionar se continuarmos a desenvolver as competências precisas. “Se pensarmos em automatizar todos os especialistas com competências, como é que vamos conseguir avaliar?”
Uma questão de confiança… ou falta dela
Houve espaço para a IA logo na cerimónia de abertura, na segunda-feira. Jimmy Wales, o criador da Wikipédia, foi categórico: “Ainda estamos a 20, 30 anos de uma IA” que seja eficaz. O responsável pela criação de uma ferramenta que também já chegou a ser criticada por poder ser editada por qualquer utilizador, considerou que o ChatGPT está “longe de ser uma fonte confiável”.
Porém, isso não quer dizer que não vá brincar de vez em quando com serviço da OpenAI, dizendo até que se diverte “bastante” com a capacidade do modelo de “inventar” informação. “Gosto de perguntar ao ChatGPT coisas sobre a minha mulher.” Wales é casado com Kate Gervey, que foi assessora de Tony Blair. “A minha mulher não é uma figura pública”, notou, mas devido à atividade profissional surgiu algumas vezes nos media. Por isso, a pergunta costuma ser a mesma: com quem é casada? “É uma pessoa diferente todos os dias”, riu-se Wales. “É importante que as pessoas percebam que o ChatGPT inventa coisas.”
Partiu do pequeno exemplo para mostrar o que na indústria já ficou conhecido como “alucinações” da IA, quando o modelo começa a inventar informação que ache plausíveis. “Vai demorar algum tempo até os modelos resolverem coisas que aprendemos na escola, como citar fontes ou não escrever coisas que não fazem sentido”, assegurou.
A lista de preocupações com a IA não inclui apenas a difusão de informação falsa – também já existem receios com a manipulação de imagens. Uma das várias sessões da Web Summit sobre o impacto da IA nos media atraiu uma multidão com o título “o Titanic nunca afundou”. Na discussão, tentou perceber-se como navegar num mundo com conteúdos gerados por IA. Ashley Rindsberg, que escreveu o livro “The Gray Lady Winked”, que conta como a cobertura feita pelo New York Times de acontecimentos como a II Guerra Mundial, a guerra do Vietname ou Revolução Cubana alterou a História através de “distorções e fabricações”, diz que o “ónus” de saber em quem confiar “não deve estar só do lado do leitor”.
“Acho que é importante fazer uma distinção entre os avanços tecnológicos e o aumento do irracionalismo. As teorias da conspiração e as notícias falsas não são uma coisa nova”, completou Sandro Kaulartz, líder de inovação da Ipsos. Fatores como o receio do futuro, por exemplo, podem ser usados para explicar estas questões, admite o especialista, “mas se calhar é uma visão míope culpar a IA ou a IA generativa por isso.” Kaulartz reconheceu ainda a forma ambivalente como se está a olhar para esta tecnologia: “Por um lado está a ser usada para gerar conteúdo falso, por outro usamo-la para tentar encontrar esse conteúdo.”
No final, chegou a resposta à questão que titulava a sessão. “Sabemos que as imagens do Titanic não eram falsas porque em 1912 não era possível falsificar imagens de forma convincente. As próximas gerações podem já não estar nessa posição. Estão habituadas a não confiar em tudo o que veem. Isso é uma ameaça real, estamos em risco de perder a nossa memória coletiva?”, colocou o moderador David Meyer, da revista Fortune.
A próxima geração poderá estar numa posição de não conseguir confiar em “qualquer imagem que vejam”. “A nossa memória coletiva é muito curta”, reconheceu Mandeep Rai, jornalista da BBC. “A memória coletiva torna-se distorcida e, por causa da IA, as imagens podem ser criadas, personagens podem ser criadas, vozes e aspeto de pessoas. O facto de isso existir significa que a memória coletiva já não é o que era.”