Sala cheia para assistir ao lançamento da nova linha de produtos da Google, no centro de Londres, na tarde desta terça-feira. Importa dar contexto: o que é que estivemos a fazer em Londres durante uma apresentação que decorreu em São Francisco? Assistimos ao streaming no YouTube como qualquer pessoa pôde fazer, mas com um extra importante: os jornalistas aqui presentes puderam experimentar alguns dos produtos em primeira mão — nenhum deles está ainda disponível no mercado.
É um destaque importante, os aficionados da tecnologia gostam de meter a mão na massa assim que sai um novo gadget, mas o que a Google apresentou ao mundo esta terça-feira foi mais do que apenas “máquinas” novas. O que foi anunciado (e demonstrado) foi a criação de um ecossistema tecnológico, algo que faltava à Google e que justifica, pelo menos em boa parte, o sucesso comercial da Apple.
Novidades? Todos os rumores foram confirmados: a Google criou uma marca com nome próprio, que inclui o novo smartphone a que chamou de Pixel, um novo dispositivo de realidade virtual e o Google Home, uma espécie de coluna portátil para ter em casa que, além de tocar música, faz pesquisas na internet e ajuda a organizar a agenda do dia (entre outras coisas).
São bonitos, bem construídos e, acima de tudo, funcionam tendo por base o músculo da marca que é, e sempre foi, o software. É aqui que a Google parece estar a dar cartas, na aposta descarada e, ao que parece bem-sucedida, de criar um “assistente pessoal para cada consumidor”. São algoritmos que trabalham a partir de 17 mil milhões de dados (!) que a empresa angariou ao longo dos anos e que começam agora a ter utilidade. É essa a palavra, utilidade, a inteligência artificial (IA) já por aí anda mas começa agora a ter uma tradução prática e (bem) visível, ou seja, começa a fazer sentido para o consumidor comum e não apenas para as grandes corporações.
Esta ideia foi transversal durante toda a apresentação, começando desde logo com as palavras do diretor executivo da Google, Sundar Pichai, que apontaram o caminho: estamos a passar de “mobile first” para “IA first”. O que se conhece pela expressão “machine learning” (numa tradução simples, “aprendizagem das máquinas” ou “máquinas que aprendem”) está a acelerar e com ela os processos de tradução automática, reconhecimento de voz e imagem, três das tais áreas onde a Google já batia aos pontos a concorrência.
Ainda há muito trabalho pela frente, como Sundar Pichai fez questão de sublinhar quando falou, por exemplo, dos avanços no processamento de voz — que já desenvolvemos em detalhe neste artigo sobre a WaveNet, um novo algoritmo de processamento de voz que ambiciona pôr as máquinas a falar como pessoas.
A primeira impressão dos novos telemóveis e dos óculos de realidade virtual foi bastante positiva, iremos falar aqui sobre eles com mais detalhe, mas o que sobressaiu no primeiro contacto foi o software que se vai espalhar, de forma mais ou menos direta, pelo resto dos produtos: o poderoso assistente da Google (que já corre na aplicação móvel Allo) está a crescer depressa e bem, embora seja bastante surdo para a língua portuguesa. Lá chegaremos.
O Observador viajou a Londres a convite da Google.