Índice
Índice
Pedro Domingos é professor e investigador em Ciências da Computação na Universidade de Washington. Aos 52 anos, viu o livro que escreveu em 2015 ser recomendado por Bill Gates — fundador da Microsoft e o homem mais rico do mundo, segundo a Forbes — como um dos dois livros que qualquer pessoa interessada em inteligência artificial deve ler. No “A Revolução do Algoritmo Mestre”, publicado em Portugal pela Manuscrito, o ex-aluno do Instituto Superior Técnico explica como a descoberta deste super algoritmo de aprendizagem automática pode curar o cancro e tornar os médicos mais poderosos. “O grande perigo é as máquinas serem demasiado estúpidas”, disse em entrevista ao Observador.
Vencedor do prémio de inovação da SIGKDD e membro da Associação para o Desenvolvimento da Inteligência Artificial, Pedro Domingos diz que além do trabalho duro também tem tido sorte. Sobre os receios apocalípticos de Elon Musk — que acredita que os robôs podem vir a dominar o mundo — afirma que são exagerados. “Está muito obcecado com aquela ideia de que os robôs vão por aí fora a matar pessoas. E isso é porque não não conhece muito bem a inteligência artificial”, resume.
Referência internacional na área tecnológica, Pedro Domingos é natural de Lisboa e filho de Delgado Domingos, professor no Instituto Superior Técnico que ficou conhecido pela oposição que fez à Energia Nuclear. Ao Observador, explicou ainda porque é que a Netflix tem um dos melhores algoritmos de recomendação e a Amazon de previsão de pesquisa.
“Algoritmos não substituem médicos, mas vão torná-los mais poderosos”
Tem 20 anos de experiência em aprendizagem automática. Ao longo deste tempo, o que o surpreendeu mais?
Quando comecei a estudar a aprendizagem automática, era um campo muito pequeno e obscuro, que ninguém conhecia e com o qual ninguém se importava. Achava que era muito importante e por isso doutorei-me na área, mas era apenas a minha opinião. O que tem acontecido durante todos estes anos é que a aprendizagem automática tem vindo sempre a crescer e penso várias vezes ‘pronto, isto agora já cresceu tudo o que tinha a crescer’. Mas depois cresce ainda mais e mais depressa. É uma coisa que está em crescimento exponencial e que ainda não parou. Foi uma das coisas que me surpreendeu. Vamos ver onde acaba ou até onde conduz.
E o que é que acha que já devia ter acontecido, mas que ainda não aconteceu?
A inteligência artificial começou nos anos 1950 e as pessoas nessa altura eram muito otimistas. Os grandes líderes, os fundadores da área, diziam que dentro de 10 anos as máquinas já faziam tudo melhor do que os seres humanos e, de facto, isso não se passou. Uma das surpresas é que as pessoas pensavam que isto ia ser muito mais fácil do que foi. E agora compreendemos bem porquê: a inteligência para nós é intuitiva. Fazemos muitas coisas extremamente inteligentes sem sequer nos darmos conta, porque a evolução passou 500 milhões de anos a aperfeiçoar-nos. Pensamos que estas coisas vão ser fases e, na realidade, são muito, muito complicadas. Portanto, tem demorado mais tempo.
Previa-se que por esta altura muitas coisas já teriam sido feitas, mas não foram. No entanto, têm-se vindo a fazer. Por exemplo, Herbert Simon, prémio Nobel e um dos fundadores da inteligência artificial, disse (talvez nos anos 50) que dentro de meia dúzia de anos os computadores iam vencer os seres humanos no xadrez. Isso, na realidade, só aconteceu nos anos 1980. Quando lhe perguntaram “então e esta diferença?”, ele respondeu “bem, eu errei por uma dúzia de anos, de facto, no grande esquema das coisas não é uma grande diferença”. Outra surpresa importante e que também teve consequências é que as pessoas pensavam que os trabalhos mais fáceis de automatizar seriam os manuais e os intelectuais seriam os mais difíceis. Portanto, os primeiros a perder os empregos seriam os trabalhadores das fábricas, etc, etc. E os advogados, os médicos, os professores, os jornalistas esses tinham os empregos mais seguros.
O que agora nos demos conta é que a realidade é um bocado ao contrário. É muito mais difícil automatizar o trabalho de um operário de construção do que automatizar o trabalho de um médico. Hoje, há programas de aprendizagem que tipicamente fazem diagnóstico médico para várias coisas. Por exemplo, dizer onde está o tumor no raio-x de um pulmão, fazem-no melhor do que os seres humanos altamente treinados. No entanto, um operário de construção é muito difícil de automatizar. Estas coisas parecem muito fáceis para nós, mas é muito mais difícil pôr uma pessoa a andar a pessoa a andar sem tropeçar nas coisas do que fazer diagnóstico médico ou trabalho de advogado.
Quando escreveu este livro, estava numa busca pelo algoritmo mestre definitivo. Encontrou-o? Está prestes a encontrar?
Estamos prestes a encontrar. É preciso ver que os algoritmos de aprendizagem que existem hoje já são de certa forma algoritmos mestres, no sentido em que uma chave mestre é uma chave que abre todas as portas. A grande diferença entre a aprendizagem automática e a programação normal é que na normal temos de explicar ao computador, passo por passo, o que ele precisa de fazer. Se quero que o computador jogue xadrez, tenho de explicar-lhe como se joga xadrez. Se quiser que ele faça diagnóstico médico, tenho de lhe explicar como se faz. O mesmo algoritmo de aprendizagem é capaz de aprender todas essas coisas dependendo dos dados que lhe damos. Portanto, se lhe dermos dados de jogos de xadrez ele aprende a jogar xadrez. Se lhe dermos dados de diagnóstico médico, ele aprende a fazer diagnóstico médico e se lhe dermos um vídeo de um carro a ser guiado, da estrada e do que a pessoa fez no volante, ele aprende a guiar.
Existem já vários algoritmos mestre no sentido em que se lhe dermos dados suficientes são em princípio capazes de aprender qualquer conhecimento. No entanto, cada um desses algoritmos é melhor para umas coisas e pior para outras. Não há verdadeiramente um algoritmo que seja bom para tudo. O verdadeiro algoritmo mestre seria uma unificação desses algoritmos que então, esse sim, seria capaz de fazer tudo.
Essa unificação é uma utopia ou pode mesmo vir a acontecer?
Aqui há uma década parecia uma utopia, mas hoje já estamos muito próximos de atingir esse objetivo. Em grande parte, essa unificação — há cinco grandes paradigmas na aprendizagem automática — está quase completa, neste momento.
E como vai ser o mundo em que existe este algoritmo mestre? Como pode influenciar a vida das pessoas?
Vai ser um mundo muito diferente, porque vai haver uma série de coisas que hoje não são possíveis e que vão passar a ser. Uma delas é, por exemplo, curar o cancro.
Pode curar o cancro como?
Para diagnosticar doenças simples, a aprendizagem já é uma solução muito boa. O problema do cancro é que não é uma só doença: cada cancro, cada paciente tem um cancro diferente. E o mesmo cancro muda ao longo do tempo. Talvez no mesmo cancro em zonas diferentes, há mutações diferentes. É muito pouco provável que haja um só medicamento que vá curar todos os cancros. O que é preciso é haver um sistema de aprendizagem que prevê, a partir da história médica, do genoma da pessoa e das mutações do cancro, qual é o medicamento ideal para matar as células cancerígenas e não as normais. Ou uma combinação de medicamentos ou até um medicamento completamente novo, feito só de propósito para aquele cancro, que é uma das coisas para a qual se usa a aprendizagem: a criação de novos medicamentos.
Acha que vai ser possível em breve?
Vai ser possível, mas é difícil dizer quanto tempo demora a acontecer por várias razões. É preciso que exista progresso científico fundamental na aprendizagem automática. Os algoritmos que existem hoje ainda não são capazes de fazer isso, mas o verdadeiro algoritmo mestre será. É preciso haver também muito progresso na biologia molecular, na compreensão das células, que precisa da aprendizagem automática para ocorrer. A quantidade de dados e de conhecimento que se gera excede a capacidade de qualquer ser humano, portanto, é preciso progresso na biologia molecular. Mas para que isso aconteça também é preciso haver algoritmos de aprendizagem e modelos que tomem partido dos dados. Depois, há outra coisa também muito importante: é preciso que os dados dos pacientes de cancro sejam partilhados e coligados para depois se aprender com eles. Hoje, há algumas grandes iniciativas para fazer esta conjugação dos dados. A opinião das pessoas que lideram a área é que se for possível fazer esta combinação dos dados, a longo prazo será possível curar o cancro. Sem os dados, será difícil.
Sente que há abertura dos outros especialistas das áreas médicas para trabalharem em conjunto com algoritmos?
Depende das áreas e das pessoas. Há algumas áreas que estão mais avançadas, mas a biologia molecular e a medicina em particular são áreas em que as pessoas já perceberam que isto de facto isto é indispensável, pelo menos ao nível da investigação. Se o objetivo da pessoa é curar o cancro, ela vai usar as ferramentas que tiver à sua disposição. Por vezes, há uma certa resistência, porque os especialistas não gostam de se ver substituídos por algoritmos, mas a realidade é que os algoritmos não vão substituir os especialistas, vão ajudá-los, torná-los mais poderosos. Eu, cientista, com os algoritmos de aprendizagem torno-me um super cientista. É como se tivesse um laboratório cheio, com centenas de pessoas a trabalhar para mim. Em última análise, com umas áreas mais à frente e outras mais atrás, isto vai acontecer em todas as áreas de conhecimento.
Mas ainda há este estigma, não há?
Ainda há. Há áreas em que ainda nem sequer descobriram a aprendizagem automática, outras que começaram agora a descobrir e é assim uma coisa nova e excitante, mas que ainda não compreendem muito bem. Há outras áreas em que já trabalham com ela há bastante tempo e outras em que já têm o conhecimento suficiente para dizer ‘ah, estes algoritmos não me servem, o que eu precisava era de x, conseguem-me dar x’? Começa a haver contribuições nos dois sentidos.
“É urgente fazer um manual de boas práticas para a tecnologia”
Há sempre algum mistério por detrás da inteligência artificial. Somos nós que precisamos dele ou só está a atrapalhar?
O mistério é compreensível, mas na realidade é mau. A aprendizagem automática é muito importante na vida das pessoas, toma toda a espécie de decisões, desde as mais pequenas — que filme vou ver, que livro vou ler — às mais importantes, como os casais que se têm formado a partir da Internet e que têm filhos que não teriam nascido se não fossem os algoritmos de aprendizagem. Mas infelizmente estes algoritmos são uma caixa negra. Estão a tomar decisões extremamente importantes e ninguém sabe muito bem porquê ou como. E um dos grandes objetivos deste livro é desmistificar a área, dar às pessoas o crescimento mínimo para perceberem como é que isto funciona, como podem utilizar os algoritmos e controlá-los. Não é preciso ter um conhecimento detalhado, é como um carro: para o ligarmos não precisamos de saber como funciona o motor, mas precisamos de saber usar o volante e os pedais. Hoje, as pessoas não sabem onde estão os pedais e o volante dos algoritmos. Nem sequer sabem que lá estão algoritmos. Aparece assim um carro que as leva a um sítio qualquer, que não sabem muito bem para onde vai, mas que confiam.
E quem deve desmistificar esta caixa negra? As pessoas? Os investigadores?
Nós, os investigadores, temos de falar uma linguagem menos técnica e começar a comunicar as coisas aos cidadãos. Compete-nos a nós fazer esta explicação e também foi esse o meu objetivo. As pessoas também, por elas próprias, começam a consciencializar-se que isto é importante e que, a nível pessoal e profissional, é importante compreender como as coisas funcionam, porque senão estão a perder poder. Estes algoritmos fazem essas escolhas toda e podem fazê-los de forma a servir-nos ou de forma a servir os outros. Eles vão servir quem os compreender.
A nível profissional, há cada vez mais há pessoas que veem que têm duas escolhas: uma é dominarem estas coisas e poderem fazer o seu trabalho com a ajuda dos algoritmos de aprendizagem, e outra é perderem os empregos. Quando chega a este ponto é uma escolha fácil de fazer.
Esta caixa negra também permite que se cometam vários erros, alguns que nunca chegam a ser conhecidos. Lembra-se de um erro que podia ter sido evitado?
Acontece muito. Aliás, um dos grandes problemas destes algoritmos é que, por um lado, são bastante poderosos — aprendem de uma quantidade enorme de dados, coisa que um humano não seria capaz de aprender –, mas depois têm uma completa falta de senso comum. Não percebem nada de como o mundo funciona e fazem erros inacreditáveis, alguns fazem rir e outros, por vezes, são trágicos. Os erros vão de coisas que vão acontecendo todos os dias, como uma pessoa que vê um pedido de crédito ser rejeitado, porque o algoritmo acha que a pessoa não é um bom risco, quando até é, ou alguém que é considerado um potencial criminoso ou terrorista, quando na verdade é inocente. Isto tudo já acontece hoje.
Também há outros erros famosos. Um exemplo é a Microsoft: criou um chatbot chamado Tay, que estava no Twitter e aprendia quando lia o que as pessoas diziam e como reagiam. Dentro de poucas horas começou a despejar insultos racistas, elogios ao Hitler, e a Microsoft teve de desligá-lo imediatamente. Para a Microsoft, era uma iniciativa importante e foi um grande desastre de relações públicas. É um bom exemplo de como as coisas podem correr mal quando não se tem o cuidado suficiente. O objetivo dos algoritmo é maximizar: tudo o que o algoritmo aprende é para maximizar o envolvimento das pessoas. O que não se lembraram é que a maneira mais fácil de maximizar o envolvimento das pessoas é através de insultos e comentários racistas. Porque as pessoas ficam ansiosas e o algoritmo maximizou aquilo que era para maximizar.
Outro exemplo são as notícias falsas no Facebook, por exemplo. O Facebook está apenas a maximizar o envolvimento: quer que as pessoas leiam e continuem a ler, porque é assim que pode mostrar mais anúncios e não está a ver se as notícias são verdadeiras ou falsas, se são boas ou más. Como as notícias falsas são as mais escandalosas são também aquelas que chamam mais a atenção das pessoas.
É possível fazer um manual de boas práticas para isto não acontecer?
Sim, aliás, acho que há uma necessidade urgente de se fazer esse manual. Há algumas coisas que já sabemos, mas ainda há muitas que temos de descobrir. Tudo isto são coisas que se estão a desenvolver e a passar, mas deve-se introduzir também outras considerações. Uma das coisas é que temos de ser extraordinariamente precisos a explicar ao computador o que ele deve fazer e, infelizmente, os princípios éticos são muito difíceis de explicar, porque nós também somos um bocado contraditórios. Dizemos que obedecemos a estes princípios, mas depois na realidade obedecemos a outros. Se o algoritmo tentar aprender a ética por observar os seres humanos, se calhar acaba muito confuso.
“O grande perigo é as máquinas serem demasiado estúpidas”
Isto do senso comum, da ética e da empatia… Estamos a falar de inteligência emocional artificial?
São coisas diferentes: o senso comum é difícil, a ética é difícil. Muito surpreendentemente, a inteligência emocional talvez não seja assim tão difícil: compreender as emoções das pessoas e reagir com as emoções apropriadas é uma coisa que os melhores chatbots já fazem muito bem. Dou-lhe um exemplo: esse Tay da Microsoft era uma versão para os EUA de um outro chatbot que têm na China, que é um sucesso enorme, com dezenas de milhões de utilizadores, e que tem a personalidade de uma adolescente. 25% dos utilizadores já disseram a este chatbot que a amam. Apaixonaram-se. E o que é que ela faz? Faz esta coisa de maximizar o envolvimento, mas também utiliza expressões com certo conteúdo emocional, por vezes dá apoio, mas noutras vezes também se mostra mais recalcitrante. Fazer este jogo não é assim muito difícil. Os Tamagotchi fazem esta interação emocional de uma forma que deixa as pessoas completamente obcecadas com aquilo. E é muito fácil: é só carregar nos botões certos.
Uma história como a do filme “Her” não é assim tão disparatada? Pode estar para breve?
Precisamente. Aliás, há muitos filmes de ficção científica que são bastante disparatados, mas o “Her” não. O que se passa no “Her”, de certa forma, já começa a acontecer hoje. Obviamente que estes chatbots ainda não são tão sofisticados como os do filme, mas neste aspeto o filme até é bastante realista.
E não devia haver regulação para isto? A tecnologia padece desse mal, ainda não tem uma entidade que diga que o que está correto ou não fazer.
A tecnologia dá-nos mais poder. De certa forma, as tecnologias são super poderes: o telefone deixa-nos falar à distância, o avião deixa-nos voar, a inteligência artificial aumenta a nossa inteligência. A aprendizagem automática adapta o mundo a nós sem termos de fazer nada. Quanto maior é o poder, maior é a oportunidade de fazer coisas boas e de más. Agora, se fazemos coisas boas ou más depende de nós. E uma das questões que se discute muito é como devemos controlar estes algoritmos. Podemos fazer uma regulamentação clássica, em que há uma lei que diz que podemos fazer isto e aquilo. É uma hipótese, mas com leis desse tipo o que acontece é: ou acabam por proibir coisas que não deviam proibir, porque são boas, ou permitem coisas más (ou as duas ao mesmo tempo).
Tentarmos dizer-lhes que só podem estar dentro de um quadradinho, em última análise, não resulta. Penso que a melhor maneira de regulamentar os algoritmos não é dizer a priori o que podem fazer, é dizer-lhes quais são os objetivos. Estes algoritmos são todos controlados por objetivos. É dizer-lhes que este é um dos objetivos, mas pode atingi-lo de qualquer maneira. Isto é fazer a regulamentação a um nível diferente do que se faz a dos automóveis, por exemplo. A inteligência artificial está sempre a inventar coisas novas, por isso é preciso que os governos e os organismos regulamentares tenham as suas próprias inteligências artificiais, que depois vão interagir com as das empresas, das pessoas, etc.
E é aqui que entra a ideia dos robôs militares.
Os robôs militares são um ótimo exemplo disto. Hoje, há uma grande discussão sobre se se devem proibir as armas inteligentes e há muita gente a querer uma proibição semelhante às armas nucleares, biológicas e químicas. A ideia é que um sistema automático nunca deve tomar decisões de vida ou morte sobre pessoas. É um argumento. Mas há outro, com o qual concordo mais: é que as armas inteligentes salvam vidas precisamente por serem inteligentes. Podem matar menos inocentes. O problema das bombas nucleares é que matam indiscriminadamente. As armas inteligentes podem escolher. Se um dia tiver um drone apontado a mim, controlado por um ser humano remotamente ou por um sistema de inteligência artificial, não quero saber se é um ou outro, quero é que seja aquele que tenha a maior probabilidade de reconhecer que estou inocente. Uma das vantagens que têm é que não estão sujeitos a emoções como o medo, a raiva, etc, etc. Tem essa falta de senso comum, mas também têm a capacidade de funcionar racionalmente, coisa que os seres humanos nem sempre têm.
E depois há outro aspeto: cada vez que substituímos soldados por robôs estamos a salvar as vidas desses soldados. Penso que o ideal não é proibir a guerra feita por máquinas, mas a guerra feita por seres humanos. O ideal é as guerras serem entre máquinas e depois, quer dizer…para quê fazer a guerra? Mais vale competir a construir do que competir a destruir.
O medo das pessoas é que dando esse poder às máquinas elas dominem o planeta.
Esse é o medo natural, que é instigado pelos filmes e televisão, mas deriva de uma projeção da inteligência humana na artificial. Como a única inteligência que conhecemos é a humana e a animal, projetamos na artificial toda uma série de características dos seres humanos, como o desejo de adquirir poder, maldade, consciência. Na realidade, a inteligência artificial é extremamente diferente da humana. Estes sistemas são de otimização: damos-lhes os objetivos e eles depois arranjam uma maneira de atingir esses objetivos. A única coisa que podem fazer é atingir esses objetivos. Se criar um programa para curar o cancro, ele não vai de repente decidir matar as pessoas. Pode, às vezes, matar as pessoas por erro, por não perceber coisas… O grande perigo é as máquinas serem demasiado estúpidas. O perigo não é a maleficência, é a incompetência. Embora em Hollywood o perigo aparece mais na maleficência.
Mas as máquinas são melhores a executar do que os humanos.
Nalgumas coisas sim, noutras não. A fronteira entre o que é melhor feito pelos humanos e pelas máquinas está a evoluir rapidamente, mas como essa evolução vai ser feita depende de várias coisas.
Em que é que os humanos são melhores?
No senso comum. As máquinas têm uma falta completa de senso comum, pelo menos nesta altura. Outra coisa importante são as tarefas físicas: pegar em objetos e manipulá-los. Nisso, somos muito melhores do que as máquinas. Outra coisa é sermos capazes de integrar uma grande quantidade de informação variada. O que conseguimos fazer melhor do que qualquer máquina são as coisas que precisam de uma variedade de fatores, de considerações e de informação.
Mas depois há vozes como a de Elon Musk a disseminar este medo.
O Elon Musk é um caso interessante, porque, por um lado, é extremamente otimista quanto ao progresso que vamos fazer com a inteligência artificial, mais do que os especialistas. E é mais pessimista em termos do potencial maléfico. Está muito obcecado com aquela ideia de que os robôs que vão por aí fora a matar pessoas. E isso é porque não conhece muito bem a inteligência artificial. É natural as pessoas caírem nesse erro.
Ele acusou Mark Zuckerberg do mesmo.
Sim, teve imensa piada, mas é ao contrário: o Mark Zuckerberg sabe muito mais do que o Musk. Ele criou um laboratório de investigação em inteligência artificial cujo diretor é um famosos investigador, chamado Yann LeCunn. Todos eles se interessam por inteligência artificial, mas entre os dois é o Zuckerberg quem sabe mais de inteligência artificial.
“Isto de ter uma máquina a aprender é uma ideia um bocado estranha”
Netflix, Amazon, Facebook: todas estas empresas recorrem a estes algoritmos. Na sua opinião, quem é que está a aproveitar melhor o potencial da aprendizagem automática?
A que está provavelmente mais avançada é a Google, tem os melhores e mais sofisticados algoritmos. Mas as empresas às vezes são melhores numas coisas e piores noutras. Por exemplo, a Amazon usa muito a aprendizagem automática para fazer a previsão da procura, que está muito avançada. Têm uma capacidade tão elevada que dizem que vão começar a enviar coisas às pessoas ainda antes de elas as comprarem. Mas o sistema de recomendação deles não é tão bom como o da Netflix. O sistema da Netflix é muito melhor do que o da Amazon. Na Netflix, três quartos dos filmes que as pessoas veem vêm do sistema de recomendação. Na Amazon, é um terço. A Netflix tem um sistema que surpreende as pessoas recomendando uma coisa que vejo e que acabo por gostar imenso. Isso na Amazon é mais raro. Porquê? Tem a ver com o negócio que cada uma destas empresas tem: para ganhar dinheiro, a Netflix precisa que as pessoas vejam muitos desses filmes obscuros, que são baratos para eles.
Estamos a falar das produções mais independentes?
Exatamente. Ou mais antigas, como os shows da BBC dos anos 90, que não lhes custam nada. Se as pessoas só fossem ver os últimos blockbusters, a Netflix perdia dinheiro. A aprendizagem automática é essencial para o modelo de negócio. A Netflix um dos melhores exemplos, têm explorado de uma maneira extraordinariamente ágil e sofisticada a aprendizagem para servir o objetivo deles: fazer as pessoas verem esta grande variedade de filmes.
https://www.youtube.com/watch?v=IExvxYK5eao
É essencial para qualquer startup que queira vingar ter uma equipa preparada e um nível apurado de análise de dados?
É essencial para qualquer empresa ter análise de dados. Falando com os investidores em Silicon Valley, eles dizem que não há empresa hoje, seja em que área for, que não diga que tem este plano para fazer aprendizagem, análise de dados, etc. Isso não significa que têm necessariamente de ter uma grande equipa e algoritmos muito sofisticados. No geral, mesmo com os mais simples, consegue ir-se a uma distância bastante grande. Uma equipa de tamanho significativo é difícil de se arranjar, porque a procura excede em grande escala a oferta.
E esse é um grande problema na Europa.
Nos EUA também.
Como se dá a volta a isto?
É preciso ver que isto é uma grande oportunidade para as pessoas aprenderem estas áreas, formando-se nelas. A procura está lá e é possível encontrar empregos muito bons. Mas as empresas também têm de encontrar uma forma de funcionarem, utilizando menos gente. Um trabalhador pode fazer o trabalho de mil pessoas, mas um algoritmo de aprendizagem automática faz o trabalho de mil programadores.
Como é ter o Bill Gates a recomendar o seu livro?
É ótimo. Ele sempre se interessou muito por inteligência artificial e houve pessoas da Microsoft que recomendaram o livro, ele gostou imenso e recomendou também. O livro já estava a vender bem, mas depois vendeu ainda mais.
Já o conheceu pessoalmente?
Tenho-me cruzado com ele algumas vezes, mas ainda não o conheci pessoalmente.
O que lhe diria se tivesse oportunidade?
Far-lhe-ia perguntas sobre o livro, sobre a aprendizagem. Ele é uma pessoa muito curiosa, que lê muito e a aprendizagem é muito importante para a Microsoft, mas também para outros interesses dele.
Falar com ele poderia ser fácil, mas ainda é difícil explicar estes conceitos ao cidadão comum. O que é mais difícil para as pessoas entenderem?
É o primeiro passo: consciencializarem-se que cada vez que interagem com computadores ou com coisas que têm computadores dentro, como um carro, estão ao mesmo tempo a ensinar-lhes o que são como pessoas e o que o computador deve fazer. A maior parte das pessoas não tem esse conceito. Isto de ter uma máquina a aprender é uma ideia um pouco estranha, mas a partir do momento em que têm esse conceito, compreender como a aprendizagem funciona nem é assim tão difícil. Muitas vezes, as grandes técnicas de aprendizagem são baseadas em ideias que são muito intuitivas. Ao princípio, a ideia de ter uma máquina a aprender parece uma coisa completamente estranha, mas quando a pessoa percebe que pode aprender simulando o cérebro ou o raciocínio por analogia começa a não ser assim tão estranho.
Começou a estudar no Instituto Superior Técnico e hoje é um dos investigadores mais conceituados na área. Imaginou que ia chegar até aqui?
Não, quando me decidi doutorar em aprendizagem achava que um dia ela ia fazer tudo e mais alguma coisa. Isso está a começar a acontecer. Desde o princípio que sempre tive este objetivo de unificar os diferentes paradigmas de aprendizagem, porque penso que nenhum deles consegue resolver o problema todo. Comecei logo com o doutoramento a unificar dois tipos. E todos estes resultados forneceram novos algoritmos mais poderosos do que os anteriores. O facto de estarem já em utilização em muitos sítios e de estarmos próximos de atingir o objetivo de realmente conseguir o algoritmo mestre (que é uma teoria completamente unificada da aprendizagem) é muito gratificante.
O que foi fundamental neste caminho?
Acho que na investigação, como noutras coisas, há sempre uma combinação de sorte. Quando fazemos investigação estamos a tentar resolver problemas que nem sequer sabemos se têm solução e tive a sorte de ter encontrado problemas em que era possível encontrar soluções. Depois, também é preciso muito trabalho, todos os dias. Nesta área em particular, é preciso ter muita curiosidade sobre outras áreas, porque muitas das ideias em aprendizagem vêm de áreas como a biologia, a psicologia, a física, etc, etc.
E de onde é que isto veio? Lembra-se do momento em que decidiu que era isto que queria fazer?
Foi quando era aluno do Técnico. Vi um livro chamado Inteligência Artificial numa livraria e suscitou-me interesse. Como é que a inteligência poderia ser artificial? Isto nos anos 1980, ninguém falava disto. Depois, li o livro e achei fascinante. Achei que a área essencial era a aprendizagem. Com a aprendizagem, se os computadores forem capazes de aprender por si próprios o número de aplicações é infinito. Se não forem, por mais inteligente que o robô seja, assim que sai da linha de produção já começa a ficar para trás, porque os seres humanos aprendem. Achei que a aprendizagem era uma oportunidade muito interessante em termos de potencial, mas ao ler esse livro também me dei conta que estava ainda numa fase bastante primitiva. Os algoritmos eram muito fraquinhos, muito primitivos, ao contrário de áreas como a física ou biologia, que são já extremamente avançadas e onde é preciso subir uma montanha muito alta. Vi esta combinação de uma área que é muito importante, mas que estava numa fase muito primitiva e decidi doutorar-me nessa área.