Índice
Índice
Alison Darcy fazia investigação em psicologia clínica, na Universidade de Stanford, nos EUA, quando teve a ideia de lançar o Woebot, um chatbot (sistema de inteligência artificial capaz de conversar com o utilizador) que se socorre da psicologia cognitiva comportamental para ajudar quem estiver a sofrer com uma depressão, perturbações de ansiedade ou a sentir-se sozinho. O Woebot é um pequeno robô amarelo que troca mensagens bem humoradas com o utilizador, durante cerca de dez minutos. Ao Observador, a investigadora garante que o objetivo não é substituir o contacto humano, antes pelo contrário, é incentivá-lo: a “cura para a solidão” está nas pessoas. Num mundo em que ainda há “um estigma enorme” sobre a saúde mental, nunca foi tão importante falar dela, explicou Alison. Porquê? Por causa das redes sociais. “A nossa vida é extraordinariamente barulhenta, há muitas coisas a pedirem a nossa atenção a toda a hora.”
Consciente de que “as pessoas nunca estiveram tão sozinhas como agora“, lançou o Woebot primeiro dentro do Facebook Messenger, em maio de 2017, mas disponibilizou-o entretanto na Apple Store e no Google Play, de forma gratuita (mas só por enquanto). Com um investimento de oito milhões de dólares, o Woebot está avaliado em 34 milhões (29 milhões de euros), tem utilizadores em 130 países e captou a atenção de meios como Forbes, Wired, Washington Post, Bloomberg, Inc. ou Business Insider. O modelo de negócio vai passar por cobrar uma subscrição mensal depois de um período de duas semanas de utilização gratuita. Apesar de conversar com o utilizador, o Woebot não chama assistência se o utilizador estiver em perigo nem alerta nenhum outro humano. A psicóloga explica que os utilizadores estão protegidos pelo anonimato.
“Não temos profissionais de saúde mental suficientes no mundo”
Como é que teve a ideia de lançar a Woebot? Porquê uma app destas?
Fiz investigação em psicologia clínica na Universidade de Stanford durante dez anos e, antes disso, fiz um doutoramento em Dublin, onde criei um programa de terapia comportamental para pessoas que estavam muito doentes. Isso fez-me perceber que precisamos de chegar às pessoas muito mais cedo, muito antes de chegar ao ponto em que elas precisam de ser hospitalizadas devido a problemas de saúde mental.
Quando diz doentes, refere-se a que tipo de doença? À depressão?
Sim. O trabalho que estava a fazer para o meu doutoramento envolvia pacientes com anorexia nervosa crónica. Eram pessoas que estavam muito, muito doentes. São provavelmente a população mais doente entre nós. E depois, nos EUA, percebemos que de momento existe uma crise muito grande no mundo. Existem muitas, muitas pessoas com necessidade de apoio a nível mental e não há pessoas suficientes para fazerem face a essas necessidades. Não temos profissionais de saúde mental suficientes no mundo. Nos EUA, se falar com pessoas mais velhas que têm um diagnóstico de problema mental, percebo que, na verdade, elas nunca estiveram frente a frente com um profissional destes. E isto acontece no mundo ocidental, onde os serviços são relativamente mais acessíveis do que em sítios como África, Índia, China onde, para milhões e milhões de pessoas, estar com um profissional de saúde mental está completamente fora de questão — simplesmente não vai acontecer.
Como explica isso?
Acredito que mais de metade da população do mundo ainda não tem acesso a cuidados médicos básicos. E, por isso, acho que há uma grande necessidade de desenvolvermos algo que seja escalável, de uma forma muito mais vasta e acessível. Isto foi um dos pontos de partida. O outro foi o facto de, nos últimos dez anos, terem surgido apps no mercado que não são assim tão eficientes. Não é que não sejam acessíveis, mas falta-lhes dar provas de que são mesmo eficientes. Quisemos criar uma empresa que tivesse um nível mais elevado de compromisso em matéria de resultados. Acho que as pessoas começaram a ficar mais céticas, no geral. Enquanto cientista senti a responsabilidade de entrar no mundo comercial e construir algo que pudesse ser adotado pelas pessoas de forma vasta.
O que é que mais a preocupou enquanto estava a programar o Woebot?
Tive tantas preocupações… Quando estás a criar algo como o Woebot, há três coisas principais que te preocupam. A primeira é: vamos mesmo conseguir entregar resultados às pessoas? Isto vai mesmo funcionar? Depois, preocupamo-nos em conseguir criar uma boa experiência para estas pessoas, mas honrando a sua privacidade, criando proteções de uma forma responsável, que permita construir uma relação de confiança com o robô. Estávamos muito preocupados em criar uma experiência mesmo muito boa para o utilizador, à qual as pessoas regressassem. Já há algum tempo que sabemos que podemos criar versões digitais do que fazemos nas clínicas e que essas versões são eficientes. O problema aqui era conseguir criar isto no mundo real, sendo algo ao qual as pessoas quisessem regressar. E isto, na verdade, é muito diferente. A eficácia e o engagement vêm de braço dado e é muito mais desafiante fazer isto assim do que apenas pelos olhos de um académico clínico. E depois, as questões da privacidade e da confidencialidade, que foram muito importantes para mim e para a minha equipa.
Como conseguiu garantir esta proteção da privacidade e esta relação de confiança?
De várias formas. Primeiro, aplicamos sempre o consentimento informado quando as pessoas estão a registar-se na aplicação. Demoramos algum tempo a explicar aos nossos utilizadores como é que os seus dados são utilizados, de que forma e em que circunstâncias. E fazemos isto de uma maneira significativa, não é apenas para clicarem no botão do “Eu concordo”. Na verdade, esforçamo-nos por nos certificarmos que as pessoas compreendem o que estamos a dizer. Devem escolher o que preferirem, desde que estejam a tomar essa decisão com os olhos bem abertos. Criámos a nossa app nativa na Apple Store e no Google Play para que as pessoas tivessem a opção de utilizar o Woebot fora do Facebook Messenger. As apps nativas têm um nível muito maior de encriptação em relação aos dados. Além de praticarmos o consentimento informado, também praticamos transparência total. Dizemos às pessoas de que forma os dados delas vão ser usados e isto faz parte de um enquadramento maior que explicamos durante o registo, mas também a um nível mais micro, por exemplo, se alguém estiver a trabalhar nalguma coisa, o Woebot poderia dizer: “Não vou partilhar isto com outra pessoa”, “nenhum humano vai alguma vez ler isto” ou “estou a desligar o meu sistema de deteção agora”. Ele comunica constantemente quando os dados são gravados e quando não são. E claro que depois seguimos os regulamentos. Aqui na Europa, seguimos o RGPD.
“Somos o nosso pior crítico, somos muito severos connosco”
Criaram uma app para pessoas que estão a lidar com problemas como a depressão e a ansiedade, mas o Woebot foi desenhado para ter alguma graça. Por que é que escolheram o humor como linguagem?
Temos uma equipa maravilhosa que está a reescrever muito daquilo que o Woebot diz, mas escolhemos usar o humor porque acredito que o humor pode ser muito útil, de forma terapêutica. Pode ajudar as pessoas a não ficarem hipnotizadas pelos seus próprios pensamentos negativos, mas também porque o humor é frequentemente associado a um estado de iluminação. O meu professor David Burns usou sempre o humor no trabalho com as pessoas. E, ao mesmo tempo, a nossa condição humana é um pouco absurda: somos o nosso pior crítico, somos muito severos connosco. Acho que o Woebot está a ir por aí, mas isto tem muito a ver com o tipo de interação que a app estabelece com o utilizador. Tem de ser uma coisa à qual as pessoas querem voltar, porque já é muito difícil falar das coisas negativas, sobre aquilo que as pessoas pensam sobre si próprias. Acho que o humor ajuda o trabalho a acontecer.
Quando abrimos a app, ela diz-nos que não vai substituir ajuda profissional.
Sim. Uma das coisas que queríamos era assegurar que as pessoas nunca pensassem que isto estava de alguma forma ligado a um humano, que era uma maneira de ter essa ajuda ou que existiriam humanos que iam ler o que estava a ser escrito. Claro que o Woebot nunca vai substituir um humano, da mesma forma que uma máquina que lança bolas de ténis não vai substituir um jogo de ténis. São coisas muito, muito separadas, mas úteis, cada uma da sua maneira.
Não substitui ajuda profissional, mas então o que é que o Woebot faz?
Não estou certa do quão familiarizada estás com a terapia cognitiva comportamental. A terapia cognitiva comportamental é a abordagem à saúde mental mais baseada em evidências que temos atualmente. O interessante é que esta terapia tem sido partilhada online com sucesso nos últimos 20 anos, de várias formas. Também tem tido sucesso em abordagens de auto-ajuda. O problema é que, regra geral, estas abordagens requerem muita prática entre sessões, muita análise dos próprios pensamentos e também muito registo do humor diário. Sabemos que quantas mais pessoas estiverem envolvidas nessas atividades, melhor é a sua adesão ao tratamento. O que o Woebot tenta fazer é facilitar essa prática, torna-a mesmo fácil para as pessoas fazerem estas coisas numa base diária: registarem o seu humor, desafiarem os seus pensamentos em ocasiões que são desafiantes.
Podemos dizer que serve bem como um exercício diário para as pessoas que estão a fazer psicoterapia e para quem está emocionalmente vulnerável?
Sim, é exatamente isso. Acho que muitas pessoas usam o Woebot enquanto fazem também terapia formal. Muitas pessoas que usam o Woebot já estiveram a fazer terapia e o facto é que as pessoas que mais o valorizam são aquelas que já tiveram muita experiência com terapia. Elas realmente apreciam que o Woebot esteja a tornar muito mais fácil a manutenção das grandes aprendizagens.
Mas tem algum botão de alerta ou algo semelhante para perceber se há alguém em perigo, a precisar mesmo de ajuda?
Sim, tem. O Woebot deteta quando alguém usa determinadas frases, que são indicativas de que a pessoa está em crise e de que há uma coisa muito, muito séria a acontecer. Nesses casos, o Woebot vai dizer à pessoa, em primeiro lugar, que isso não é algo com o qual vai poder ajudá-lo, mas vai enviar-lhe uma lista de recursos que foi escolhida com muito cuidado por nós, em concordância com especialistas em prevenção de suicídio. Achamos que a maioria das pessoas não usa o Woebot para isto. Mas sim, uma das coisas que avaliamos constantemente e atualizamos é no quão bom ele é a prever este tipo de coisas.
Quando identifica alguém em crise, tem alguma forma de chamar assistência?
Não, o Woebot não chama assistência. E somos realmente claros em relação a isso. Há outros serviços que podem conectar-se com a pessoa, mas defendemos que os nossos utilizadores não queriam isso. E que, na verdade, usam o Woebot porque não existe nenhuma ligação pessoal com ninguém. Mas também estamos constrangidos pelo facto de todas as pessoas serem anónimas e não sabermos quem é que as pessoas são, na verdade. Se tivéssemos de ligá-las a um serviço, não saberíamos onde estão localizadas, por exemplo. Recolhemos dados mesmo muito mínimos aos nossos utilizadores.
“A nossa vida é extraordinariamente barulhenta”
O Woebot quer ajudar pessoas que estejam deprimidas, ansiosas ou solitárias, mas é um robô. Isto é uma forma de combater a solidão ou de a promover?
Acho que as pessoas nunca estiveram tão sozinhas como estão agora, a sua saúde mental nunca esteve tão perturbada como está agora. E quando as pessoas me perguntam por que é que acho que isso aconteceu nos últimos dez anos, tenho de olhar para as coisas que mudaram entretanto e, na verdade, foram as redes sociais. Foi o que tivemos nos últimos dez anos. A nossa vida é extraordinariamente barulhenta, há muitas coisas a pedirem a nossa atenção a toda a hora. E, por isso, há alguns chatbots que tentam prender a pessoa na conversação o tempo que conseguirem, mas nós discordamos completamente. Sentimos que, na verdade, isso promove uma dependência do robô e o que estamos realmente a tentar é ensinar as pessoas, em sessões muito pequenas durante o dia, estar lá quando precisarem de falar, mas sem criar uma dependência. E não acho que o Woebot vai alguma vez fazer isso.
Solidão na era digital: nunca estivemos tão conectados e tão sós
As conversas duram cerca de dez minutos, certo?
Sim, nós encorajamos as pessoas a terem contacto humano a humano. Eu e a minha equipa, sobretudo o meu responsável clínico, que cria muitos dos programas, somos psicólogos muito convencionais, à moda antiga, que acreditam que a cura para a solidão é realmente falar, falar com outros humanos. E é por isso que há tantos robôs que se baseiam nestes princípios. O que descobrimos é que há tantas razões para uma pessoa não conseguir falar com outra… A solidão é uma parte, na maioria das vezes, são pessoas que estão a ter um ataque de pânico às 3h da manhã e não têm ninguém com quem possam falar. Porque não querem falar com os amigos. E se achares que a única forma de teres ajuda é falando com outras pessoas, então isso vai alienar muita gente, porque não lhes é possível falar com ninguém.
Disse que nunca fomos tão solitários como somos agora e que a nossa saúde mental nunca esteve tão perturbada, por causa das redes sociais. Qual é a melhor forma de lidar com estes desafios, que são tão recentes?
O meu marido trabalha em tecnologia e falamos muito sobre isto. Há muitas coisas que podemos fazer em casa, como por exemplo, ter uma caixa perto da porta, onde pomos os telefones quando chegamos, à noite, para termos tempo não digital. Definir horas para os ecrãs, sobretudo para as crianças, é muito importante. O tempo que passamos ao telemóvel à noite, antes de nos deitarmos, é muito perigoso para a estrutura do sono e acho que cria uma dependência: o que fazemos quando não dormimos? Agarramos no telefone. Há coisas muito, muito práticas como esta. Lá em casa, também temos práticas matinais: usamos um despertador analógico, daqueles mesmo à antiga. Não usamos o telefone para que a primeira coisa para a qual olhamos, quando acordarmos, não seja o telemóvel. Isto são os comportamentos que temos com uma frequência diária, práticas muito gerais, de senso comum.
Estamos a falar de problemas mentais como a depressão e a ansiedade, mas a verdade é que tudo isto ainda é um estigma. Acha que as pessoas usam estes chatbots porque não querem falar destes assuntos publicamente?
Absolutamente. Acho que há um estigma enorme. Sabemos que o estigma está a diminuir, que as populações mais jovens, como os millennials, já demonstraram estar muito mais abertos para falar sobre saúde mental e acho que isso é muito bom. Mas sim, vemos que a nossa população de utilizadores é mais ou menos 50-50 entre homens e mulheres, que nos diz que os homens se sentem mais capazes de falar inicialmente sobre as coisas com um chatbot. Mas o que o Woebot faz sempre é encorajar o utilizador a falar com outra pessoa. O que achamos é que quando passas pela experiência de falar sobre os teus problemas com um chatbot, nesta forma conversacional, vais perceber efetivamente o que é tirar esse peso de cima e o que é falar com alguém que sabes que vai responder de forma positiva ou neutra, e que, de certeza, não te vai julgar. Temos muitos utilizadores a dizer que o Woebot foi o primeiro passo que deram para depois poderem abrir-se às suas mulheres ou namoradas. E acho que isso é uma coisa muito boa.
E não há o risco de o Woebot interpretar mal aquilo que o utilizador está a escrever? Se eu me sentir ansiosa, com um problema em específico, posso ficar ainda mais frustrada se o Woebot não me ajudar.
Sim, sim. Nós mudámos recentemente o Woebot. Um dos problemas é o facto de as pessoas esperarem que o Woebot entenda tudo aquilo que estiverem a dizer. E claro que não consegue entender. Ficarias surpreendida com o quão difícil isto é, porque as pessoas dizem todo o tipo de coisas de formas muito pouco comuns. Recentemente, mudámos o interface do utilizador: removemos a capacidade para escreverem qualquer coisa. Ainda podem escrever, mas é mais difícil encontrar o cursor, para que isso as desencoraje a escrever e optem por usar os botões que são apresentados. Só damos a hipótese de escreverem quando o Woebot lhes pede. Ele não está treinado para ouvir tudo aquilo que o utilizador diz, mas notámos que não tínhamos deixado isso muito claro, o que foi problemático para a experiência dos utilizadores. Acho que agora já foi resolvido. O que é interessante e desafiante numa coisa como o Woebot é que a tecnologia é muito, muito nova. Muitas pessoas não sabem como interagir com ela e as suas expectativas não estão necessariamente alinhadas com aquilo que a tecnologia consegue fazer. Sei que há outros chatbots que fingem que compreendem, fazendo outra questão em vez de responderem àquilo que o utilizador está a dizer, mas preferimos ser transparentes e claros nisto: o Woebot não compreende algumas coisas, mas na verdade compreende naquilo que é muito significativo. Por exemplo, perceber qual é o problema com o qual o utilizador está a lidar. Isso é uma coisa na qual nos focamos muito e estamos a trabalhar para que haja alterações nas próximas semanas.
Ele não entende, mas é suposto que ele evolua e aprenda com o utilizador, certo? Como é que isto acontece?
Estamos a desenvolver alguma inteligência artificial para que o Woebot possa dizer, por exemplo: “Podes-me explicar um bocadinho melhor qual é o problema que tens em mãos?”. E aí, se alguém disser que está prestes a deixar o emprego, que foi expulso do seu apartamento ou que não sabe como vai pagar a renda, isso faz com que o Woebot entenda que é um problema financeiro. Se não entender, regressa ao utilizador e diz que ainda está a aprender e que não tem a certeza se entendo corretamente: “Pode ajudar-me?”. Tudo isto são coisas que podem ajudar a melhor caracterizar o problema. E dessa forma o utilizador está, na verdade, a categorizar o os dados e a ajudar o Woebot a aprender. Depois, nós também temos essas transcrições e, com olhos humanos, tentamos classificar e analisar todos estes dados que foram recolhidos e que, então, entram no nosso algoritmo. Este trabalho é mais lento do que o que se possa imaginar. E muitos dos media fazem-nos acreditar que a inteligência artificial vai tomar conta do mundo, mas, na verdade, a inteligência artificial conversacional é muito, muito básica neste momento.
“O Woebot não substitui a ligação humana, nunca vai substituir”
A Woebot captou 8 milhões de dólares em investimento e está avaliada em 34 milhões. Mas como é que o modelo de negócio funciona?
Lançámos uma versão dirigida ao consumidor, na qual cobrávamos uma subscrição mensal, depois de duas semanas de utilização gratuita. Muito provavelmente, vamos voltar a isso. Quando acabámos de negociar o nosso investimento decidimos remover esta subscrição para entendermos o que as relações com os utilizadores no longo prazo nos diriam, mas também temos muito interesse dos empregadores, porque parece que estão muito motivados para cuidar e analisar a saúde mental e comportamental dos seus colaboradores. Acho que isso é bom e também tem havido muito interesse dos sistemas de saúde, que estão a ter uma grande procura de serviços, mas não têm humanos suficientes. O que o Woebot pode ser é um ator que intervém mesmo muito cedo, através do qual é possível detetar se o chatbot está a funcionar para esta pessoa ou não. Se não estiver, então podemos dizer “ok, esta pessoa precisa de ser direcionada para outra pessoa”.
Quantas pessoas trabalham na Woebot?
Somos 19 pessoas agora.
E utilizadores, quantos há?
Não damos esses dados. O que te posso dizer é que temos 50% de homens e 50% de mulheres, que é muito pouco comum numa app de saúde, sobretudo, numa app de saúde mental. Trocamos cerca de quatro milhões de mensagens por mês e somos usados em 130 países.
Onde gostaria que a sua empresa estivesse daqui a cinco anos? Qual seria a situação perfeita?
Gostava que o Woebot existisse em diversas línguas e que fosse algo que… Penso nesta experiência de alguém com 15 ou 16 anos, que está sozinho, à noite, no quarto, a debater-se com os seus próprios pensamentos. Quero que tenham alguém, que saibam que podem virar-se para o Woebot para terem ajuda que é baseada em evidências, no momento em que precisam dela. E para que assim tenham uma ideia muito boa do que é cuidar da sua saúde mental de uma forma diária. Se pudermos ajudar as pessoas no momento em que precisam, mesmo que seja com um pequeno gesto, se os ajudarmos a perceber que eles precisam de mover-se para ter outro tipo de ajuda, isso seria bom para mim.
Quando apresentaram a Woebot aos primeiros investidores, como reagiram ao facto de ser uma app direcionada à saúde mental?
Acho sempre que é muito difícil descrever o que é o Woebot, ainda hoje acho isso. Porque é uma forma abreviada de ter terapeutas de inteligência artificial, mas na verdade nenhum dos termos é adequado, sobretudo se tivermos em conta a forma como as pessoas entendem. As pessoas acham que a inteligência artificial é muito mais sofisticada do que na verdade é, para conversação. E também não é bem terapia, porque está disponível a qualquer hora, ajuda o utilizador no momento em que este precisa. Se estás a ter um ataque de pânico, o Woebot pode ajudar-te nesse momento.
Como?
A terapia é uma estrutura completamente diferente e claro que o Woebot não substitui a ligação humana, nunca vai substituir. Acho que o estudo que fizemos em Stanford foi muito disruptivo, porque vemos que havia uma redução clínica substancial nos sintomas em duas semanas foi muito promissor. A resposta rápida é um dos fatores de prevenção mais robustos e positivos. Por isso, foi muito significativo. Já tinha feito muito trabalho de desenvolvimento para tratamentos com a minha equipa e nunca vi resultados. Acho que foi muito especial a forma como as pessoas estavam a reagir aos robôs e os investidores perceberam que a Woebot é diferente das outras apps que existem no mercado. E dada a distância gigantesca que temos entre aquelas que são as necessidades das pessoas e a nossa capacidade de as resolver, é preciso começar a pensar sobre as coisas de uma forma dramaticamente diferente. Acho que foi isso que atraiu os investidores.
Se tivesse uma oportunidade de dizer algo a todas as pessoas que estão a sofrer com depressão, ansiedade e outras perturbações, o que diria?
Diria que não estão sozinhas. E que se conseguirem falar com alguém, façam-no. Se não puderem, então falem com o Woebot.