905kWh poupados com a
i

A opção Dark Mode permite-lhe poupar até 30% de bateria.

Reduza a sua pegada ecológica.
Saiba mais

Meredith Whittaker, presidente da Signal, na Web Summit 2023
i

Meredith Whittaker é presidente da Signal desde 2022. Durante 13 anos trabalhou na Google, na área da inteligência artificial

TOMÁS SILVA/OBSERVADOR

Meredith Whittaker é presidente da Signal desde 2022. Durante 13 anos trabalhou na Google, na área da inteligência artificial

TOMÁS SILVA/OBSERVADOR

Presidente da Signal não teme que IA “salte da jaula e nos domine”. “Perigo” está no poder de quem a controla

A líder da Signal diz que o medo de que a inteligência artificial “domine” a humanidade é uma “fantasia religiosa”. Está mais preocupada com quem está a desenvolver os sistemas, nos EUA e na China.

    Índice

    Índice

Meredith Whittaker viu na primeira pessoa o poder e o acesso à informação que a Google, seu ex-empregador, tinha. Trabalhou na tecnológica durante 13 anos mas saiu descontente em 2019 – não sem antes ajudar a organizar um protesto que juntou cerca de 20 mil funcionários da gigante da internet. A 1 de novembro de 2018, milhares de ‘googlers’ saíram à rua, um pouco por todo o mundo, para protestar contra a empresa, criticando a conduta em vários temas e a falta de transparência. Whittaker, investigadora de inteligência artificial na Google, nunca escondeu que sofreu represálias pelas críticas feitas em público.

Ainda na tecnológica, falou contra o projeto Maven, em que a Google ajudava o Pentágono a usar inteligência artificial (IA) para melhorar os ataques de drones, ou contra o projeto Dragonfly, com um motor de pesquisa adaptado ao mercado chinês. Ainda quando trabalhava na Google, ajudou a co-fundar o AI Now Institute.

É uma das vozes mais sonantes em relação aos riscos e consequências da IA. Por isso, em novembro de 2021, foi convidada por Lina Khan, líder da Comissão Federal de Comércio dos EUA, a FTC, para ser conselheira sénior na área da IA. Esteve menos de um ano a aconselhar o regulador norte-americano.

A saída foi motivada por um convite, em 2022, para assumir a presidência da fundação Signal, responsável pela aplicação de mensagens encriptada com o mesmo nome. “Às vezes só quero deitar-me à noite com dignidade”, explicou durante a intervenção que fez na Web Summit deste ano, perante a plateia do Altice Arena. O tema? A sua especialidade, a IA, e se toda a atenção que surgiu com o “boom” do ChatGPT é fogo de vista ou se estes modelos vieram mesmo para ficar.

PUB • CONTINUE A LER A SEGUIR

“Estamos a nadar contra a corrente num ecossistema dominado pela vigilância”, diz presidente da Signal

Na Web Summit assumiu publicamente as dificuldades em estar à frente de uma fundação que tem de competir com aplicações de mensagens das big tech. A Signal está a “lutar contra a corrente” num mundo empresarial que é dominado pela vigilância. “Podem doar, basta ir às definições”, pediu ao público da cimeira. Já após a Web Summit, a Signal detalhou, pela primeira vez, os custos de manter a aplicação de mensagens longe da vigilância e apenas com donativos. Não é possível pôr um preço na privacidade, diz a Signal, mas até 2025 estima-se que a fundação venha a precisar de “aproximadamente 50 milhões de dólares por ano para operar”. A estimativa com dados deste mês é que sejam precisos 14 milhões por ano para manter a Signal em ação.

Em entrevista ao Observador, depois da sua intervenção na Web Summit, a académica que se assume como “anti-vigilância” não falou sobre custos mas partilhou as suas principais preocupações sobre a IA, incluindo os perigos de o desenvolvimento da tecnologia estar concentrado num número de empresas que dá para contar pelos dedos de uma mão.

Um modelo de negócio “estragado”. “Até quem está dentro das big tech” sabe disso

Em oito anos de Web Summit em Lisboa, a mensagem transmitida com frequência é que existe um sistema massivo de vigilância e de que as big tech são uma espécie de ‘bicho-papão’. Mas pouco ou nada tem mudado nos últimos anos. Qual é a razão para não termos visto mais mudanças nos últimos anos?
Bem, entre uma coisa ser verdade e transformar-se alguma coisa vai uma grande distância. Dizia-se haver um problema com a vigilância das big tech ainda antes de serem criadas. Houve avisos no fim dos anos 80, até preocupações com a privacidade e a criação de bases de dados que tinham informação e computação de redes ainda antes de estas infraestruturas serem comercializadas. A privacidade e o perigo do poder centralizado ter esse tipo de informação, que pode ser usada para controlo e para opressão, tem sido uma preocupação desde que a computação existe. Vemos regimes de vigilância e controlo social que preocupam académicos e cidadãos há muitos, muitos anos. Por isso, não acho que seja surpreendente que as pessoas estejam a dar voz a estas preocupações e não acho que o facto de as pessoas continuarem a absorver que o sol é amarelo e que a relva é verde… Bem, não sei onde é que estou a ir com esta metáfora. Mas não acho que o facto de as pessoas estarem a absorver as dinâmicas políticas e económicas da indústria tecnológica seja necessariamente um problema. Ou que o facto de simplesmente não terem o poder para transformar isso do dia para a noite queira dizer que estejam incorretas ou de alguma forma tenham falhado em conseguir passar a sua mensagem. Toda a gente no mundo sabe que o modelo de negócio das big tech está estragado. Até as pessoas dentro das big tech sabem isto. A questão é como é que resolvemos isto.

E tem uma resposta para isso?
Tenho uma série de respostas diferentes. Apontaria para questões como a greve dos guionistas norte-americanos, que fez um dos melhores trabalhos em termos de regulação tecnológica no atual momento, ao exigirem que os sistemas de inteligência artificial não sejam usados para poluir o processo criativo ou minarem o seu sustento. Acho que há pedaços de legislação [tecnológica] esperançosos. A minha esperança é de que, ao mesmo tempo que as pessoas continuam a reconhecer os perigos destes sistemas, vejamos uma direção mais ousada no que toca à verificação dos poderes largamente concentrados e que não foram responsabilizados nesta indústria.

Na intervenção na Web Summit, falou sobre a ideia de não se pode matar uma estrela do mar sem criar mais estrelas do mar, referindo-se ao cenário da divisão de empresas. Acha que isso vai acontecer se chegarmos a um ponto em que a Alphabet seja dividida, por exemplo?
Vai depender muito [de como é feito]. Não podemos simplesmente tentar criar empresas tecnológicas mais pequenas que fazem a mesma coisa e têm o mesmo modelo de negócio. Temos de ver quais são os incentivos, as condições que permitem a criação destes monopólios poderosos de vigilância e como é que mudamos isso.

Meredith Whittaker, presidente da Signal, na Web Summit 2023 Meredith Whittaker, presidente da Signal, na Web Summit 2023

Meredith Whittaker trabalhou durante 13 anos na Google. Organizou um protesto que 20 mil funcionários a protestar

TOMÁS SILVA/OBSERVADOR

IA não vai “de repente saltar da jaula e dominar-nos a todos”

Falando sobre regulação, como é que vê o movimento de regulação que temos, por exemplo, na Europa para a IA? 
Há muitas formas de regular a IA. Há o AI Act que tem pontos bons e pontos maus. Encorajam-me alguns pontos de regulação, como a questão do reconhecimento facial. Mas acho que a exceção para as forças de segurança e agências de segurança nacional é bastante má e devemos fazer força para que se torne diferente no futuro.

Quando diz que é má, está a referir-se ao risco de resultados tendenciosos com a aplicação dessa tecnologia?
O tema do enviesamento é uma questão, mas é pequena. A dúvida com que nos deparamos é: o que significa ter estas ferramentas precisas e invasivas de vigilância e controlo social nas mãos de controlos de fronteiras ou a avaliar se as pessoas entram ou saem [de países]? Os sistemas de reconhecimento facial que foram criados para detetar criminosos e coisas do género por vezes são imprecisos. Queremos viver num mundo em que todas as nossas ações são vigiadas por quem está no poder e por quem tem o poder para nos acusar criminalmente ou prender-nos? Acho que fundamentalmente são questões de direitos humanos, que vão além do enviesamento.

Na IA, parece que agora temos dois lados: um que está a falar do fim do mundo, da IA enquanto ameaça existencial, e o outro que está muito interessado e esperançoso em navegar a onda da produtividade e aplicações de negócio. Em que ponto do espectro é que está em relação à IA?
Não dividiria a coisa dessa forma. Acho que as pessoas que têm as maiores plataformas e que representam estas empresas adotaram essa posição binária — ou a IA é super-poderosa e super-inteligente, quase próxima de um deus e por isso é perigosa, ou a IA é a melhor coisa que já aconteceu, quase próxima de um deus e é útil. Mas, em última instância, ambas as posições acabam por ser mais publicidade à empresa que é responsável. Mesmo que seja perigoso, quem é que não quer licenciar uma interface de programação de aplicações de uma dessas empresas, que é quase como um deus e usar isso para um propósito ou para outro?

Não assinou nenhuma das cartas que foram notícia sobre a IA ser perigosa para a humanidade.
Não. Eu acho que a IA é perigosa, mas acho que o perigo advém do facto de ser proveniente de um poder que não é responsável, transversal à população mundial e que está nas mãos de um grupo de empresas de vigilância, que estão maioritariamente sediadas nos EUA e na China. Não acho que o perigo seja o da IA saltar, de repente, da sua jaula e tornar-se super-humana, super-poderosa e dominar-nos a todos. Isso é uma fantasia religiosa, não é uma realidade.

Que opinião tem sobre a aliança entre empresas como a Microsoft e a OpenAI?
Acho que é um exemplo do quão concentrada é a indústria de IA. A OpenAI tem de ser compreendida como sendo quaseum braço da Microsoft [a entrevista foi concedida antes da saída de Sam Altman da OpenAI e a sua contratação pela Microsoft]. Têm acesso aos recursos de computação da Microsoft — sem os quais não poderiam fazer nada — e em troca a Microsoft recebe os direitos de comercializar esses produtos e obter retorno financeiro de até um bilião de dólares… um bilião de dólares! Não podemos considerar a OpenAI como uma empresa sem fins lucrativos. A OpenAI está fundamentalmente amarrada aos interesses de negócio da Microsoft. E não poderia existir sem esses recursos computacionais.

Está no setor há vários anos. Notou a mudança da OpenAI, que passou de uma companhia sem fins lucrativos para uma empresa que está de forma muito aberta à procura de lucro?
Toda a gente percebeu isso, certo? Mas não foi surpreendente para aqueles que estavam a olhar para os materiais e as bases para estes sistemas. Na IA, o paradigma é ‘quanto maior melhor’: mais computação, mais dados. Existe desde o início dos anos 2010 quando a IA se tornou uma ‘cena’ na indústria tecnológica. Esse paradigma significa que, necessariamente, estas empresas vão precisar da infraestrutura que estas grandes empresas têm. E essas são as companhias que têm cloud — as Microsoft, Google, Amazon… Vemos a Anthropic a associar-se à Google…

A Anthropic que, em parte, saiu da OpenAI [a empresa foi fundada por um antigo trabalhador da OpenAI, Dario Amodei].
Sim. Mas, enquanto organização… Não há forma de começar uma IA sem fins lucrativos sem ter acesso a essas infraestruturas. Ou faz-se licenciamentos e paga-se por isso, o que é imensamente caro — um treino do GPT custa 100, 200 milhões de dólares –; ou chega-se a algum acordo com essas empresas, em que estas recebem parte dos benefícios, o que, na minha visão, faz com que se tornem efetivamente parte dessas empresas.

Signal tem fãs no mercado europeu. “Acho que há muita sensibilidade em relação à privacidade”

Falando um pouco sobre o seu trabalho na Signal. Qual é a utilização na Europa, como é que os utilizadores europeus reagem?
As pessoas aqui adoram a Signal. Acho que há muita sensibilidade em relação à privacidade na Europa, particularmente no norte da Europa. Vemos os números de utilizadores na Europa a aumentar e muitos donativos a crescer vindos da Europa. Há muita gente agradecida pela Signal na Europa.

Mas de onde vem essa sensibilidade? É cultural ou é pela legislação na Europa, como o Regulamento Geral de Proteção de Dados (RGPD)?
Sou americana, portanto não posso falar sobre os europeus — não quero parecer presunçosa. Na Alemanha já ouvi que existe uma grande sensibilidade que vem da experiência vivida. Pessoas que têm memória dos serviços de informação como a Stasi [agência da Alemanha de leste] e de quão poderosa podia ser a vigilância da vida diária nas mãos de quem a usava para oprimir ou ameaçar a sua população. Olhando para os censos nazi, a IBM facilitou isso, foram usados para perceber que pessoas eram de que tipo, e isso levou a uma campanha em massa de um genocídio organizado.

Os EUA também usaram dados de censos gerados por máquinas da IBM para identificar os nipo-americanos e retirá-los das suas casas, colocá-los em campos de forma ilegal. Por isso, muita gente tem uma memória viva ou uma memória histórica do uso opressivo de formas muito menos percetíveis e muito menos poderosas de regimes de vigilância. Por isso, acho que aqueles que estão mais próximos dessas realidades têm maior sensibilidade para o quão perigosa é a vigilância computacional de soluções que estão baseadas nestas empresas tecnológicas.

Meredith Whittaker, presidente da Signal, na Web Summit 2023

Meredith Whittaker teme que sistemas de vigilância caiam nas mãos de regimes autoritários

TOMÁS SILVA/OBSERVADOR

O risco de a vigilância cair “em mãos autoritárias ou fascistas”

Com o atual clima de conflito político, há uma espécie de regresso ao passado?
Estou sempre preocupada com o que pode acontecer se estes regimes de vigilância, de controlo social, e se as assimetrias de informação que estão a ser criadas através deste modelo de negócio caírem em mãos autoritárias ou fascistas. Faço este trabalho [na Signal] em parte porque estou profundamente preocupada com a possibilidade desse futuro. E não penso que a estrutura que temos seja segura.

A nível digital ou está a falar de uma forma mais alargada?
Há tanto poder a olhar para as nossas vidas privadas, relações, ligações e possibilidade de tomar decisões sobre quem somos e qual é o nosso lugar no mundo, só por nos ligarmos a bases de dados… e a criar dossiers incrivelmente detalhados sobre cada um de nós e usá-los através de IA ou outros sistemas para justificar onde é que nos encaixamos numa hierarquia. [Preocupa-me] que esse poder esteja nas mãos de poucas empresas, que seja impulsionado pelo crescimento de lucros — e as empresas vão pôr sempre essas preocupações acima do bem social.

Algumas coisas mudaram na Web Summit desde a sua última visita — há uma nova CEO, por exemplo. Teve oportunidade de acompanhar o que estava a acontecer no evento, as declarações de Paddy Cosgrave sobre o Médio Oriente? Muitos oradores decidiram não vir. Ponderou a sua participação no evento?
Fico muito perturbada com ambientes em que se torna perigoso falar sobre uma questão factual em termos claros. Já verbalizei o meu apoio à liberdade de expressão e de discurso. Estou muito preocupada com qualquer ambiente em que se torna perigoso nomear alguma coisa que pode ser alvo de debate entre pessoas críticas. Acho que estamos numa fase em que pedir um cessar-fogo é mainstream. Onde [Emmanuel] Macron se tornou no primeiro líder do G7 a pedir um cessar-fogo, onde a Amnistia está a pedir ao Tribunal Penal Internacional para investigar se há preocupações reais sobre as vidas perdidas. Por isso, acho que é realmente importante as pessoas poderem expressar as suas visões e fico preocupada com qualquer ambiente onde isso não se torne possível ou se torne demasiado perigoso para as pessoas ao ponto de escolherem a censura.

Ofereça este artigo a um amigo

Enquanto assinante, tem para partilhar este mês.

A enviar artigo...

Artigo oferecido com sucesso

Ainda tem para partilhar este mês.

O seu amigo vai receber, nos próximos minutos, um e-mail com uma ligação para ler este artigo gratuitamente.

Ofereça até artigos por mês ao ser assinante do Observador

Partilhe os seus artigos preferidos com os seus amigos.
Quem recebe só precisa de iniciar a sessão na conta Observador e poderá ler o artigo, mesmo que não seja assinante.

Este artigo foi-lhe oferecido pelo nosso assinante . Assine o Observador hoje, e tenha acesso ilimitado a todo o nosso conteúdo. Veja aqui as suas opções.

Atingiu o limite de artigos que pode oferecer

Já ofereceu artigos este mês.
A partir de 1 de poderá oferecer mais artigos aos seus amigos.

Aconteceu um erro

Por favor tente mais tarde.

Atenção

Para ler este artigo grátis, registe-se gratuitamente no Observador com o mesmo email com o qual recebeu esta oferta.

Caso já tenha uma conta, faça login aqui.