Por favor, não toquem em nada, este é o sítio onde o Facebook vive — três edifícios assentes em 101 hectares de terra, nos arredores de Dublin, na Irlanda, a partir de 11.800 toneladas de aço. São duas Torre Eiffel deitadas em 22,5 estádios da Luz, num só prado verde. Não há sinalização à chegada, nem logótipos, nem as cores que nos habituámos a associar a Mark Zuckerberg. Há um posto de segurança pelo qual temos de passar no início. Identificação verificada, autorização dada, seguimos. No campo onde está o centro de processamento de dados da maior rede social do mundo, ninguém nos abre a porta. Ela abre-se sozinha. Um toque na campainha, uma tentativa de empurrar, uma luz num intercomunicador que se acende: “Esperem que a porta abra”. Está gente em casa, mas ninguém aparece.
O tapete azul que pisamos à entrada dá-nos o “bem-vindos” que esperávamos: estamos no Clonee Data Center, que agrega os dados de 2,5 mil milhões de utilizadores do Facebook, Instagram e WhatsApp — e um dos seis centros que a rede tem atualmente em funcionamento pelo mundo. Até 2020, Mark Zuckerberg espera ter 14 centros destes operacionais. O de Dublin abriu em abril de 2016 e ainda só tem dois edifícios em funcionamento. É a maior construção privada alguma vez feita na Irlanda, na qual trabalharam 1.550 pessoas, durante 7,2 milhões de horas, e onde foram utilizados 58 mil metros cúbicos de cimento para erguer os três blocos, o suficiente para encher 23,6 piscinas olímpicas.
O que é que um centro destes faz, afinal? Garante que os nossos dados não se perdem, caso algo aconteça. “Um centro de processamento de dados é onde a Internet vive, é onde se torna uma coisa física”, explica aos jornalistas Niall McEntergart, diretor das operações dos centros de dados do Facebook para a Europa, Médio Oriente e África.
“Aqui é onde o Facebook vive.” Estranho? Nem por isso. Pense na foto que partilhou no Instagram, nas mensagens que troca no WhatsApp e nos “Parabéns” que hoje deu a alguém no Facebook — no momento em que concretiza essas ações no telemóvel ou no computador, elas seguem pela rede para as centenas de milhar de servidores que a empresa tem nos vários data centers. São eles “o cérebro” da rede social. Todos os elementos diferentes das publicações ou mensagens enviadas pelos utilizadores seguem quase em tempo real para sítios diferentes. “E isso requer que o site os carregue, envie pela rede, que eles cheguem ao centro de dados, que este saiba quem tu és, que utilizador és, quem são os teus amigos (…) Ele puxa toda essa informação para talvez mais de 100 servidores diferentes em múltiplos centros de dados, reúne-os todos para ti, num par de milissegundos”, acrescenta.
[ Niall McEntergart explica o funcionamento dos servidores do Facebook]
Quando o Observador chega ao cérebro da maior rede social do mundo, o cinzento do céu irlandês confunde-se com o cinzento da estrutura metálica que nos recebe. A gama cromática é escassa, com exceção para a receção e para a parte dos escritórios — aí, não existem tonalidades em falta, nem mensagens, nem arte urbana. “Move fast and build things” (muda rápido e cria coisas, em português), lê-se num cartaz cor de laranja à entrada. Estamos no Facebook, mas num Facebook que tentar recuperar de polémicas, num Facebook que tem sofrido um rol de crítica em várias áreas, um Facebook que trocou o slogan inicial “Move Fast and Break Things” (Muda rápido e parte coisas, em português) por este, porque queria certificar-se que, além de estar a lançar coisas novas no mercado, estava a fazê-lo bem. A preocupação, no entanto, só surgiu depois das críticas.
Os olhos foram obrigados a desviar-se do painel laranja para o vídeo de três minutos que fomos obrigados a ver. É aí que o centro apresenta todos os procedimentos de segurança do edifício. A partir deste momento, seguem-se corredores e corredores cinzentos com paredes brancas e cruas, e portas metalizadas que se abrem maioritariamente sozinhas. Numa das vezes, bastou um estalar de dedos do segurança para que se abrisse (e não foi magia). “Por favor, não toquem em nada.” De facto, não tocámos. Também não andámos sozinhos, nem queríamos: os corredores do centro são um autêntico labirinto, cada um dos edifícios tem cerca de 25 mil metros quadrados, o equivalente a três campos de futebol e meio. E nós só temos duas horas, porque ainda há um avião para apanhar nesse dia.
Por razões relacionadas com a segurança do data center, o Facebook não divulga quantos servidores tem em cada um dos edifícios. Uma coisa é certa: cada uma das coisas que fazemos online é guardada em sítios diferentes e copiada várias vezes. “Não queremos perder os teus dados caso algo aconteça, há várias cópias guardadas , que dependem do quão velhos os teus dados são”, explica Niall, que antes de trabalhar no Facebook passou por empresas como a Xerox e a Yahoo!. Os dados dos utilizadores são divididos em duas categorias: os quentes e os frios.
Os quentes dizem respeito às coisas que as pessoas estão a fazer agora, ontem, na semana passada: os likes que fez nas publicações dos amigos, os comentários que deixou, as páginas que visitou, as conversas que teve, as músicas que partilhou, os artigos ou as fotografias. Os frios são tudo aquilo que fez no ano passado, há dois, três ou quatro anos, é toda a atividade mais antiga. Os dados quentes são copiados mais vezes pelos servidores: são feitas entre 3,2 e 3,6 cópias. Os mais antigos são menos: cerca de 1,8 cópias, “que é o suficiente para serem regenerados mesmo que os percamos”.
“Os dados mais recentes são aqueles para os quais os utilizadores olham mais. Não olham tanto para os mais antigos, que são comprimidos e armazenados em sistemas um pouco mais lentos, mas que requerem menos intensidade de energia e são, por isso, mais eficientes”, explica o responsável. Descobri-los nos diferentes servidores e reuni-los quando é preciso é feito através de um processo matemático. E pode alguém entrar no edifício, ligar um cabo USB aos servidores e copiar os dados dos utilizadores? Niall McEntergart ri-se: “Seria impossível alguém entrar aqui. Temos, como já dissemos, uma segurança muito, muito rigorosa. Construímos estes edifícios num sistema de redundância e mesmo que alguém tente tirar algo daqui, temos múltiplos níveis de redundância [dos dados] para garantirmos que tudo continua. Se este edifício deixar de trabalhar, podemos continuar a operar tudo de outro. É por isso que temos tantas cópias”.
À entrada de cada uma das salas onde moram os cabos de fibra, que fazem circular a informação e os servidores, está papel autocolante no chão. Os pés colam sem darmos por isso — é para ninguém entrar nas salas com pó vindo da rua.
“Ainda nada me assustou ao ponto de acordar a meio da noite num suor frio”
No ano em que a polémica entre o Facebook e a empresa de análise de dados britânica Cambridge Analytica marcou a atualidade tecnológica um pouco por todo o mundo, as atenções estão viradas para a forma como a rede social utiliza os dados dos 2,5 mil milhões de utilizadores. Em março, o The Observer e o The New York Times revelaram que a empresa britânica tinha usado indevidamente dados de 50 milhões (soube-se mais tarde que eram 87 milhões) de contas do Facebook para ajudar a eleger Donald Trump nas presidenciais dos Estados Unidos, em 2016. Em Portugal, acredita-se que a empresa poderá ter acedido aos dados de mais de 63 mil portugueses. O Facebook já sabia da existência destes dados desde 2015 e, apesar de ter pedido à empresa para os apagar, não verificou se isso tinha de facto acontecido.
Em 2013, os utilizadores participaram num teste de personalidade disponível no Facebook, acreditando que se tratava de uma investigação académica. Os dados fornecidos ao programador do teste foram depois vendidos à Cambridge Analytica para prever e influenciar o sentido de voto dos norte-americanos indecisos nas eleições de 2016, abrindo a discussão em torno da privacidade e do papel das tecnológicas na proteção da mesma. Sobre esta falha na segurança, Mark Zuckerberg pediu várias vezes desculpa: em entrevistas, no Facebook, no Congresso norte-americano — onde foi ouvido duas vezes num total de 10 horas — e no Parlamento Europeu. Prometeu melhoras, anunciou novas medidas na verificação dos programadores que podem utilizar a plataforma da rede social para desenvolver aplicações e mais escrutínio.
12 coisas que tem de saber para perceber a polémica do Facebook e da Cambridge Analytica
Como é que um escândalo como o do Cambridge Analytica afeta a atividade de um data center como o de Dublin, perguntou o Observador. NiallMcEntergart tenta fintar a pergunta, dizendo que os colaboradores da empresa têm muito orgulho em trabalhar para o Facebook e do que fazem, mas reconhece o constrangimento. “É óbvio que são coisas que ninguém gosta de ver acontecer, mas este mundo é muito diferente. A Cambridge Analytica depende das API [plataforma aberta de programação], por exemplo, são outras pessoas que usam os dados do Facebook. Estamos muito mais focados no mundo físico, isto é o sítio onde gerimos os ativos físicos, onde o Facebook vive fisicamente”, diz. E dá aquela tarde daquela quinta-feira como exemplo: “Podes ver por ti própria, enquanto caminhas por aqui, o nível de escrutínio e de segurança que vês em múltiplas ocasiões. Quando precisamos de desmantelar equipamento, por exemplo, reescrevemos a mesma drive sete vezes, para assegurarmos que não deixámos nenhum dado em lugar nenhum e que estão 100% seguros”.
O Facebook começou a utilizar o centro irlandês como suporte para todas as aplicações da empresa, onde se inclui o Instagram e o WhatsApp, em dezembro de 2017. Apesar da dimensão da estrutura que tem de gerir, Niall McEntergart diz ao Observador que ainda não teve de lidar com nenhum problema que lhe tirasse o sono. “Ainda nada me assustou ao ponto de acordar a meio da noite preocupado, num suor frio. Somos bons a gerir isto, as pessoas que estão aqui têm muitos, muitos anos de experiência e construímos uma equipa muito forte a nível global. Acabámos de abrir um centro em Singapura e estamos a construir outro na Dinamarca, tudo isto soma cada vez mais segurança e resiliência à nossa infraestrutura”, diz.
Mas os dias não passam sem preocupações. O que assusta mais o cérebro que está ao leme de outro cérebro? Os fatores externos, que não estão sob o seu controlo, responde. “Coisas como desastres naturais mas também coisas mais simples, como continuar a encontrar pessoas soberbas, com as melhores competências do mercado, no ambiente tão competitivo em que estamos hoje. Andamos sempre à procura de boas pessoas, como as encontramos e como as mantemos”, diz. Quanto aos dados, “estão absolutamente sob o comando das nossas mentes”, acrescenta. Um comando que é difícil, mas que também é divertido pela escala que tudo tem: “Temos dezenas de milhar de servidores neste edifício, que estão todos ligados por 200 mil quilómetros de cabos de fibra. Gerir este tipo de escala de uma forma eficiente, inteligente e com as ferramentas certas é o mais difícil, mas também é o melhor, o mais divertido”.
Os dados gerados pelos 2,5 mil milhões de utilizadores da rede social passam por 200 mil quilómetros de cabos de fibra, aos quais Niall McEntergart chama “a super autoestrada da informação partilhada no Facebook“, porque são eles os responsáveis por transportar os dados por todo o edifício. “Dependendo daquilo que as pessoas estão a fazer, a informação é distribuída para vários sítios. São 200 mil quilómetros, o suficiente para dar a volta ao mundo cinco vezes. Seriam precisas duas pessoas a trabalhar ininterruptamente durante 12 anos para desmontar todos estes cabos”, explica. E quando o Facebook aumentar o número de utilizadores? Não há outra solução que não seja a expansão e a construção de mais cérebros.
[ Niall McEntergart explica como circula a informação dentro do centro de dados]
“Estamos sempre a olhar para os novos utilizadores que vêm não só do Facebook, mas também do Instagram e do WhatsApp. E também para os dados que estão a ser gerados. Quando pensas nisto em termos da tecnologia que se utiliza, por exemplo, percebes que se olhares para o teu telefone há cinco anos, vês que a qualidade e resolução das fotografias e vídeos era muito pior do que agora“, explica Niall, que detalha como o tamanho dos ficheiros e dos dados cresceu nos últimos anos. “Temos de estar constantemente com atenção a isto, para nos assegurarmos que estamos a construir uma tecnologia e infraestrutura que faz face a essas necessidades. Estamos constantemente a olhar para novos mercados, novos países, sítios para onde podemos expandir e onde faz sentido estarmos”, acrescenta.
500 mil abelhas e uma subestação de energia própria
Vinte e cinco segundos. É mais ou menos este o tempo que demora a remover um dos servidores das várias prateleiras, caso precise de ser reparado manualmente, o que só acontece em 40% das vezes. Na maioria das avarias, a intervenção é feita através de um procedimento automático. “Temos muitos processos automatizados, contratamos o melhor talento que conseguimos encontrar e queremos que eles progridam. Não queremos que façam tarefas repetitivas e, por isso, desenvolvemos muita automação. Por causa da nossa escala, esta automação permite-nos ser mais eficientes na forma como reparamos estes sistemas: 60% dos erros que detetamos são reparados com processos automáticos que desenvolvemos aqui na Irlanda”, explica.
O hardware utilizado para processar os dados vem do Open Compute Project (OCP), um sistema de open source (sistemas de desenvolvimento aberto, para o qual várias pessoas podem contribuir) que a empresa ajudou a fundar em 2011 e que conta com o conhecimento de uma comunidade de 200 engenheiros. A missão do OCP é promover a abertura, inovação e um maior foco na eficiência energética nas tecnologias de computação. A infraestrutura necessária para fazer trabalhar um centro destes vem desta rede aberta de conhecimento. “Pusemos todo o nosso hardware hiper eficiente e o design dos centros de dados em open source, na esperança de ajudar empresas de todas as dimensões a usar a energia de uma forma mais eficiente e que essa eficiência leve a melhoramentos em toda a indústria”, explica fonte do Facebook.
A energia necessária para fazer correr todos estes servidores e cabos também é produzida no próprio centro. Movido 100% a energia renovável, o Clonee Data Center é um dos centros de dados mais eficientes do mundo no que à corrente elétrica diz respeito, explica Niall. Para fazer face ao consumo energético, Mark Zuckerberg construiu uma subestação de 220 quilovoltes no parque irlandês. “Creio que somos única empresa privada a ter uma subestação própria de energia. Se não tivermos eletricidade na qual podemos confiar, também não temos um centro de dados no qual podemos confiar“, diz o responsável. E sem centro de dados, não há Facebook.
Os milhares de servidores do centro de Dublin precisam de energia para operar ininterruptamente, o que acaba por gerar calor nos edifícios. Muito calor. Este calor provoca tipicamente um dos maiores desperdícios de energia dos centros de processamento de dados. Mas não naquele centro. Em Dublin, o calor gerado pelos servidores é arrefecido num sistema de refrigeração que usa vento e água para fazer recircular o ar. Como estes aparelhos refrigeradores estão colocados mesmo por cima dos servidores, o sistema de refrigeração desce diretamente para o sítio que precisa de ter a temperatura controlada. É assim que mantêm o ambiente estável dentro do edifício, numa temperatura nunca acima dos 27 graus. Quando estes valores e os da humidade oscilam, os alertas disparam.
Cá fora, ao verde dos várias dezenas de hectares que rodeiam os edifícios do Clonee Data Center há 10 colmeias que são a casa de 50 mil abelhas (em cada colmeia), tratadas por cerca de 20 colaboradores do Facebook. “E o mel é delicioso”, diz Niall, explicando que um dos compromissos da empresa é promover a fauna local. Não chegámos a ver o mel nem as abelhas, mas visitámos o centro no dia em que o Facebook anunciou um programa de doações para ações comunitárias na Irlanda, no valor de 2,5 milhões de euros, tal como faz nas outras regiões em que tem centros de processamento de dados. O objetivo é promover projetos locais relacionados com tecnologia e cultura.
Antes de iniciarmos a visita de duas horas ao centro, Niall McEntergart pediu-nos várias vezes que não tocássemos em nada. E entre risos, foi mais concreto: “Por favor, não façam nenhuma palermice“, que, na verdade, é precisamente aquilo que os 2,5 mil milhões de utilizadores do Facebook, Instagram e WhatsApp também querem: que os seus dados tenham igual nível de segurança apertada dentro e fora destes centros. Que ninguém faça nenhuma palermice — até porque já ninguém quer ouvir Mark Zuckerberg a pedir desculpa outra vez. Os lamentos do empreendedor têm sido mais a norma do que a exceção.
As “palermices” da rede social não são exclusivas da Cambridge Analytica. Em novembro de 2011, a Comissão Federal de Comércio (FTC) norte-americana acusou o Facebook de enganar os consumidores, por exemplo, porque lhes disse que iria manter as suas informações privadas, mas permitiu que fossem partilhadas e tornadas públicas. “O Facebook sempre se comprometeu em ser transparente sobre a informação que partilharam connosco – e fizemos com que a Internet desenvolvesse ferramentas que permitiam que as pessoas vissem e controlassem o que partilhavam“, disse Zuckerberg no pedido de desculpas da altura. Na sequência do caso Cambridge Analytica, a FTC abriu novamente uma investigação à tecnológica.
Mark Zuckerberg. Os milhões, as polémicas e as desculpas do “novo César” do Facebook
Em março de 2018, Zuckerberg relembra na rede social que criou: “Temos a responsabilidade de proteger os vossos dados e, se não conseguirmos fazê-lo, então não merecermos servir-vos“. O arrependimento não foi suficiente para evitar que várias personalidades da comunidade tecnológica, como Elon Musk (fundador da Tesla e da Space X), Tim Cook (presidente da Apple), Steve Wozniak (co-fundador da Apple), apagassem as contas que tinham na rede social. “Woz” chegou mesmo a dizer que se sentia enojado com o que o Facebook tinha feito.
“Palermices” não faltaram dentro do próprio Facebook nos últimos anos, nem pedidos de desculpa. Talvez seja por isso que a empresa esteja agora a começar a abrir as portas. Porque sabe que estes 2,5 mil milhões não querem nem uma coisa nem outra.
*A jornalista visitou o Clonee Data Center a convite do Facebook