Índice
Índice
A cada segundo que passa são detetados quatro mil ataques para tentar obter uma palavra-passe. Ou, num ataque com uma ligação maliciosa, é preciso pouco mais de uma hora entre o momento em que alguém clica num link e o acesso ao sistema alheio por parte do atacante. Estes são alguns dos exemplos que Vasu Jakkal tem debaixo da língua para ilustrar os desafios crescentes na área da cibersegurança.
A vice-presidente corporativa da Microsoft para a área da segurança e privacidade acredita que a IA generativa vai “ser um superpoder” para quem está a jogar à defesa, respondendo a desafios como a falta de profissionais na área. Mas também reconhece que esta tecnologia já está a ajudar quem está ao ataque a profissionalizar-se. Num relatório recente, a Microsoft deu conta que as ferramentas de IA estão a ser usadas também pelos autores de ataques informáticos, que estão a ficar “cada vez mais sofisticados”.
Em entrevista ao Observador, a propósito da vinda da executiva a Portugal para o evento “Building the Future”, em Lisboa, Jakkal lembra ainda que a segurança informática “é um ‘desporto’ de equipa e que vai ser necessário que todos nós trabalhemos juntos”, apelando a uma maior cooperação entre empresas e entidades públicas para responder aos desafios dos ataques informáticos.
Um campo desnivelado: de um lado, o aumento da “sofisticação” dos ataques; do outro os “profissionais exaustos” na defesa
Chegou à Microsoft em 2020, um ano que foi muito relevante a nível de ameaças informáticas. Mas parece que, a cada ano, trabalhar em cibersegurança está a tornar-se cada vez mais desafiante. Sente isso?
Sim, sinto. Entrei para a Microsoft em julho de 2020 e, no outono desse ano, tivemos um dos ataques informáticos mais significativos, que foi à SolarWinds [foram comprometidos emails da empresa de tecnologia SolarWinds e o ataque espalhou-se a clientes]. O que estamos a ver é que, nos últimos três anos, o panorama de ameaças escalou. Há três anos, registávamos 567 ataques dirigidos a palavras-passe por segundo, agora estamos a detetar 4 mil por segundo — por isso é uma questão de magnitude.
Também estamos a ver a velocidade dos ataques a aumentar. Em média, demora 72 minutos entre um utilizador clicar numa ligação de phishing e quem ataca ter acesso completo aos dados e à caixa de correio dessa pessoa. Estamos a detetar mais de 300 autores de ameaça únicos, entre ligações a nações, Estados e grupos de crime financeiro. No ano passado foram detetados 200. Como temos visto recentemente, a velocidade, a escala e a sofisticação dos ataques com ligação estatal a países como a Rússia, Irão, Coreia do Norte ou China, estão a aumentar. Os ataques estão a ficar cada vez mais sofisticados, furtivos e mais persistentes. Estamos a ver um panorama mais alargado de ameaças e continuamos a monitorizar isso.
E como é que a inteligência artificial (IA) pode ajudar nesse trabalho?
Acredito que a IA generativa vai ser um superpoder porque, se olharmos para o panorama da segurança, além dos ataques, que estão a ser cada vez mais severos, vemos uma enorme falta de talento no mercado. Hoje em dia, há quatro milhões de postos de trabalho em todo o mundo que estão por preencher. E é difícil atrair as pessoas para a área da segurança informática e treiná-las.
Porquê?
A segurança tende a ser uma área muito técnica. São precisas muitas competências para que alguém se torne especialista em segurança informática, são precisas muitas certificações, é necessário perceber a área… E, dada a falta de talento, os profissionais mais experientes estão exaustos, não têm tempo para treinar quem entra no setor. Por isso há um desequilíbrio: por um lado, quem ataca tem a rapidez, a competência e a sofisticação a aumentar e, do outro, há poucas pessoas no lado da defesa. Por isso, uma das coisas que a IA – e em particular a IA generativa – vai resolver é ajudar a equilibrar este desnível, acredito que a favor de quem defende.
É uma ótima ferramenta para a produtividade, que por isso vai ajudar as pessoas a aprender mais depressa como agir na área da segurança informática. A ferramenta em si é muito rápida e é escalável, por isso vai ajudar com questões como a resposta guiada, a investigação de ameaças, os relatórios e a sumarização. Por isso, todas estas competências e exemplos de uso vão ajudar as pessoas a ser mais produtivas. Fizemos um estudo recentemente, chamámos-lhe randomized control trial [teste aleatório de controlo], com 150 pessoas que não são profissionais de segurança ou que estão no início da carreira enquanto profissionais da área. Demos-lhes a ferramenta Copilot for Security, que é a nossa ferramenta de IA generativa, e vimos que, com o Copilot, eram 26% mais rápidas, 44% mais precisas e 90% tinham um sentimento mais positivo da experiência, sentiram-se realmente produtivas e gostaram de usar a ferramenta.
Por isso, acho que vai responder à falta de talento no mercado, mas também vai garantir uma melhor proteção [a nível de segurança informática]. Um dos desafios na segurança é que precisamos de fazer um gráfico de sinais, que é quando detetamos um ataque temos de saber que dispositivos e identidades é que estão a ser afetados e quais são as ligações entre as duas coisas. E isso é muito difícil de fazer, porque são precisas muitas competências. O Security Copilot é capaz de fazer rapidamente os gráficos e encontrar coisas que até podíamos nem ter notado. Então, a) está a fazer uma melhor defesa, b) está a responder à falta de talento – por isso é que acho que a IA generativa vai realmente ser um superpoder para a segurança.
As pessoas que estão a trabalhar na cibersegurança vão precisar de um novo conjunto de competências para trabalhar com a IA? Poderá ser mais fácil ingressar na carreira?
Acho que vai ser mais fácil e acho que também vai reduzir as barreiras à entrada, que hoje em dia são muitas. Há muitas populações que não são bem servidas e que não conseguem juntar-se à área da segurança — por exemplo regiões mais remotas ou que não têm acesso às mesmas competências.
Como o Security Copilot usa linguagem natural, vai ser possível fazer perguntas e ter respostas à medida. Haverá coisas como engenharia de prompts [o texto com um pedido, por exemplo] para desenvolver os pedidos corretos e garantir que estão a ser desenvolvidas as competências que vão ajudar. Estou muito esperançosa de que esta ferramenta vai ajudar as pessoas a terem mais competências de uma forma mais rápida. E a ferramenta em si é uma ótima professora para a segurança.
Microsoft lança Fábrica de Inovação em Inteligência Artificial em Portugal
Quem ataca também já aumenta a “produtividade” com a IA
Também temos de olhar para o outro lado. Se a IA pode ajudar na área da segurança, também pode ser usada para desenvolver ataques mais depressa, por exemplo. Como é que se equilibra isto, como é que se garante que é uma ajuda mas que também pode acarretar um desafio?
É uma excelente questão. Primeiro, deixe-me começar pelas ameaças com IA que estamos a ver — e hoje em dia monitorizamos isto muito de perto.
Inclusive com a OpenAI [a Microsoft é a principal investidora na empresa que desenvolveu o ChatGPT].
Sim, temos uma parceria com a OpenAI para isso e estamos a trabalhar em conjunto para ver como é que quem ataca está a usar estas tecnologias. Hoje em dia, a Microsoft processa 65 biliões [trillion] de sinais todos os dias. Os sinais de ameaças ajudam-nos a perceber melhor as técnicas, as táticas e procedimentos de quem ataca e também nos ajudam a perceber os indicadores do que foi comprometido. Por isso, os dados são mesmo importantes para percebermos o que se está a passar com as ameaças emergentes. Também temos muita informação humana — estamos a acompanhar 300 agentes únicos e mais de 125 grupos de ransomware [tipo de ataque em que os sistemas ficam inacessíveis e é preciso pagar um resgate, habitualmente em criptomoeda, para reaver a informação]. Temos usado esta informação e associamo-nos a organizações, como a OpenAI, para perceber o que está a acontecer no panorama das ameaças.
Lançámos o nosso primeiro relatório conjunto com a OpenAI, que fala sobre as ameaças ligadas à IA. Estamos a ver agentes, em particular ligados a países como a Rússia, Irão e a China, a ser mais produtivos. Tal como quem defende, também estão a usar esta ferramenta para se tornarem mais inteligentes – estão a fazer reconhecimento, a tentar perceber mais sobre as ameaças e sobre programação. Ou seja, estão a usar estas ferramentas. E quem ataca vai usar todas as ferramentas que conseguir para se tornar mais astuto.
Voltando à parte sobre o que é que as pessoas da defesa podem fazer: para a IA generativa ser realmente eficaz são precisos dados excelentes. Essa é a vantagem de quem defende, porque temos bons dados, enquanto quem ataca ainda está muito em silos no que toca aos dados. Temos de usar essa vantagem e temos de usar IA, porque vai processar vários dados, para estarmos um passo à frente. É por isso que sentimos que vamos estar um passo à frente.
A segunda parte é que, com a IA, temos de usar esta ferramenta e temos de disponibilizá-la a quem defende: é por isso que o Copilot para segurança é importante, porque temos de usar essas tecnologias para trabalhar neste panorama. Se não, quem ataca vai usar [a IA] e não vamos ter essa vantagem. A vantagem da escala dos dados permite-nos ficar um passo à frente para depois podermos desenvolver ferramentas e monitorizar o panorama de ameaças, para podermos incluir toda essa informação nas nossas tecnologias. E, por fim, ao mesmo tempo em que estamos a fazer isto, também temos de garantir que desenvolvemos IA que é segura.
Como por exemplo?
Na Microsoft temos uma iniciativa chamada IA Responsável e um enquadramento, que representa um esforço de mais de dez anos para nós. O quadro da IA assenta em seis pilares: privacidade, cibersegurança, proteção, justiça, igualdade, responsabilidade e transparência, todos estes elementos, que estão desde o desenvolvimento das aplicações dos modelos LLM e nas camadas de confiança que existem, como é que podemos incluir segurança nisto? Também temos as questões de garantia e quando estamos a desenvolver uma ferramenta de IA temos de estar em linha com este enquadramento.
Também anunciámos uma iniciativa chamada Secure Future Initiative, em novembro, para nos protegermos melhor na era da IA. Como é que estamos a olhar para o desenvolvimento de software nesta era, como é que fazemos melhor proteção de identidade, como é que respondemos às vulnerabilidades juntos? Mas, chegando ao seu ponto, acredito absolutamente que a IA generativa vai ser um superpoder que vai ajudar toda a gente mas, ao mesmo tempo, temos de fazê-lo de uma forma muito responsável, temos de ter a privacidade como questão central e temos de monitorizar o panorama de ameaças de uma forma vigilante.
E também têm de fazê-lo de uma forma rápida.
Temos de fazer isso de forma rápida e trabalhando juntos, certo? Porque a Microsoft não pode fazer isto sozinha, temos de trabalhar com os ecossistemas, temos de trabalhar com outros vendedores, com clientes e parceiros — é um “desporto” de equipa e vai ser necessário que todos nós trabalhemos juntos, porque quem ataca trabalha muito bem dessa forma.
Noutras entrevistas falou muito na necessidade de haver cooperação na área da defesa — se os cibercriminosos trabalham juntos, quem defende também tem de o fazer, então?
Absolutamente, se não é só um campo de batalha assimétrico na área da segurança. É muito fácil atacar, já se pode comprar kits de ransomware na internet, é uma grande gig economy [trabalhos ou projetos esporádicos]. Temos de quebrar os nossos próprios silos e isso também requer parcerias com o setor público e privado. Temos de partilhar informação, tecnologias. Temos de vestir todos a mesma camisola, acho que estamos todos a proteger o nosso mundo.
Falou sobre o Copilot, que atualmente é uma parte grande da estratégia da Microsoft. Como é que os clientes estão a reagir a esta ferramenta para a cibersegurança?
De uma forma muito, muito positiva. De facto, em vários clientes com quem temos reunido, temos visto um grande interesse em usar este Copilot, naturalmente pelas razões de que já falámos: uma melhor defesa, uma resposta mais rápida, em escala e com capacidade para responder à falta de talento. Por isso os clientes estão muito entusiasmados.
Anunciámos o Copilot a 28 de março do ano passado e fizemos uma private preview porque queríamos criar um sistema de aprendizagem onde realmente conseguíssemos aprender com os nossos clientes. Isto é uma ferramenta poderosa, portanto para nós é muito importante desenvolver isto da forma correta. Temos recebido um feedback muito positivo. Ainda estamos na fase de acesso inicial, com centenas de clientes, mas estamos a ter bons comentários.
Há algum cliente em Portugal nesta preview?
Vou ter algumas reuniões com clientes em Portugal, mas o que estamos a ver é que há interesse em usar esta ferramenta. O sentimento do nosso programa inicial de clientes tem sido muito positivo.
“Há muito trabalho a fazer” para a proteção de eleições na era da IA
Há muitas questões que geram preocupação quando se fala em IA, nomeadamente o impacto em eleições ou os deepfakes [imagens e vídeos manipulados]. Muitos países vão ter eleições este ano: Portugal no próximo mês, os EUA… Como é que se desenvolvem ferramentas para proteção nesta altura? O presidente da Microsoft, Brad Smith já abordou esse tema, também.
O Brad Smith é um bom exemplo para este tema, porque ele e a sua equipa estão a desenvolver muito trabalho na área da segurança de eleições, está sempre a falar sobre deepfakes e sobre como proteger as democracias em todo o mundo. Estamos a fazer uma série de coisas no que diz respeito a IA, como garantir que há marcas de água [em imagens ou vídeos gerados por IA]. E também que estamos a trabalhar com o ecossistema sobre o conteúdo em si, como torná-lo seguro, protegê-lo, enquanto garantimos que também é autêntico, que temos compromissos com os direitos de autor… Portanto há muito trabalho a fazer. Também temos um hub de eleições que vamos implementar. O Brad Smith também fez uma publicação extensa sobre deepfakes, onde apresenta vários detalhes.
Ainda nos deepfakes: a OpenAI é uma parceira de relevo para a Microsoft e recentemente lançou o Sora [um modelo de geração de vídeo a partir de texto]. E, pelo que parece, fazer deepfakes poderá ser ainda mais fácil do que é atualmente. Acha que se calhar esta parte da IA está a avançar demasiado rápido?
Não tenho grande contacto com o Sora, precisaria de mais informação. Mas acho que, voltando às questões de que falei antes, sobre o enquadramento de IA responsável, acho que a IA generativa tem o poder e o potencial de nos ajudar a todos e de criar oportunidades. E depois é a nossa responsabilidade garantir que estas tecnologias estão a ser desenvolvidas de forma responsável. A velocidade da IA é, claro, um grande fator a ter em conta, por isso temos de garantir que o desenvolvimento da segurança acompanha a velocidade a que a IA se está a desenvolver.
O que é pensa sobre a disponibilização de ferramentas de IA de forma generalizada, ou seja, quando ficam disponíveis para serem usadas por qualquer pessoa?
Vou falar do ponto de vista da Microsoft sobre o que estamos a fazer. Quando lançamos ferramentas ligadas à IA generativa, como os nossos Copilot, por exemplo, focamo-nos muito em fazer diligências para garantir que a ferramenta, assim como todos os outros pontos ligados à produtividade, tem privacidade e segurança incluídas. Por isso há muito trabalho envolvido nos testes de produto. É por isso que temos previews privadas e acessos antecipados antes de lançarmos um produto globalmente, para garantir que temos a certeza do que estamos a fazer e que estamos a tomar todas as medidas.
Quanto tempo é que pode demorar essa modalidade de private preview, antes de ser feito um lançamento geral?
Depende muito da ferramenta. Usando o Copilot para segurança como exemplo: lançámos no fim de março [de 2023] e esteve em private preview até agosto. Anunciámos o acesso antecipado em outubro e ainda estamos nessa fase. Mas depende [da ferramenta], há outras linhas temporais tendo em conta a rapidez dos comentários dos clientes e de quão rápido conseguimos implementar essa informação. Por isso, cada ferramenta tem uma linha temporal diferente. Mas uma das medidas que adotamos é testar os sistemas e ter uma aprendizagem e trabalhamos com os clientes e parceiros para garantir que estamos a fazer tudo o que é possível do ponto de vista de segurança e privacidade.
Regras da UE para a inteligência artifical são oportunidade de negócio ou limitação?
O seu cargo inclui várias áreas, incluindo compliance, conformidade. A Europa tem a Lei dos Serviços Digitais, a Lei dos Mercados Digitais e, no futuro, vai ter o AI Act. Está a tornar-se mais difícil trabalhar na Europa e garantir a conformidade necessária com todas estas regras?
Acho que olho para a área da compliance como uma parte integral da segurança, por isso não é só uma lista de tarefas a cumprir e uma regulação. Mas há que trabalhar em conjunto e perceber a razão para existirem estas regras. A segurança da Microsoft já integra mais de 50 categorias no portefólio e uma grande parte dessa integração está ligada às tecnologias de conformidade. Temos uma ferramenta que olha para a forma como conseguimos garantir que as equipas estão a compreender as regras de uma forma fácil, como é que é possível automatizar várias partes para haver conformidade com as regulações. Porque acho que a regulação é importante para termos a certeza de que temos requisitos robustos de segurança. Por exemplo, temos uma ferramenta chamada gestor de conformidade, que inclui mais de 300 regulações – e isto é importante porque somos empresas globais, trabalhamos em várias regiões. Muitas das organizações que operam na Europa têm negócios na América Latina, na Ásia, etc. E não são só as regulações europeias, também temos de garantir que estão alinhadas com todas as regulações globais.
Mas a Europa está a intensificar o trabalho na regulação.
Sim, está a liderar o movimento. E, por isso, temos duas coisas: uma é fazer parcerias, para garantir que temos a certeza de que estamos a compreender a legislação e todos os aspetos de segurança — e vemos isso como uma questão muito relevante. Vemos a privacidade e a segurança como duas faces da mesma moeda. A conformidade faz logo parte e temos de garantir que há alinhamento e que damos as ferramentas e tecnologias necessárias para isso.
Depois, também acreditamos em parcerias com o setor público no que toca a definir e a compreender estas regulações. Fazemos muito trabalho do género nos EUA, temos trabalhado com a administração Biden na partilha, por exemplo, das nossas melhores práticas, de novos pontos de vista no que toca ao panorama de ameaças e sobre as necessidades. Vemos a conformidade como um elemento importante e, na verdade, é um marco realmente crítico que é preciso termos agora para garantir que estamos a criar as tecnologias certas.
Em relação ao AI Act, ter de estar em conformidade com mais uma regulação vai ser uma oportunidade de negócio para a Microsoft ou vai ser algo que poderá limitar a vossa capacidade de inovação no IA?
Acredito que é uma oportunidade. O AI Act da União Europeia está muito virado para uma abordagem de risco.
Acha que essa é uma abordagem útil?
É muito útil e, de facto, quando olho para o Copilot e falo sobre segurança, está tudo muito em linha [com a abordagem europeia]. A tecnologia que desenvolvemos está muito em linha com uma abordagem baseada em risco. As nossas “caixinhas” a preencher são muito semelhantes nisso, portanto é ótimo porque é uma abordagem muito similar e acho que isso ajuda. Também acho que vai ser uma oportunidade porque, como estamos em linha, já estamos a incluir [essas questões] nos nossos produtos. E depois temos produtos que ajudam os clientes na área da segurança de dados e governança, que vão ajudar os clientes, quer tenham o Copilot da Microsoft ou outros produtos de IA.
As nossas ferramentas hoje disponibilizam, do ponto de vista de defesa, aplicações para cloud que nos ajudam a perceber que apps de IA são usadas e se são seguras, se há autorização para essas apps de IA… E podemos ajudar as organizações a ter os protocolos certos para isso. Também temos a classificação de dados, em que é possível identificar o que são dados sensíveis, por exemplo. Tudo isto, do ponto de vista da regulação de IA, já temos isso implementado e, em segundo lugar, temos ferramentas para apoiar outras organizações a cumprir com estas regras, acho que é uma oportunidade para nós.