Recentemente, numa das minhas aulas de Gestão Estratégica da Inovação do “The Lisbon MBA Católica | Nova”, o tema abordado foi o seguinte: “Usar Inteligência Artificial (IA) para a Inovação”. Bastante impressionados com as novas possibilidades de acelerar a inovação com a IA, no final da aula também discutimos sobre as diversas novas ferramentas que chegaram ao mercado, em particular o Windows Copilot e o Google Duet.
O Microsoft Copilot já está disponível desde 26 de setembro e será difundido em novembro com o lançamento do Windows 11. Este é um momento importante para todos refletirmos sobre a privacidade dos dados por três razões:
- Perda de Agência. Diferente das redes sociais onde alimentamos plataformas com fotos e informações que selecionamos como adequadas para serem compartilhadas (ou seja, dados inseridos por nós), com co-pilot damos acesso total às informações nos nossos dispositivos, por exemplo para adotar o tom de voz em emails, fazer compras para nós próprios ou criar mood boards a partir das nossas fotos (ou seja, dados extraídos por eles). Alimentar informações nas redes sociais significa que temos controlo sobre os dados que compartilhamos. O algoritmo só pode aprender com o que nós disponibilizamos. Agora, dar acesso a dados para uma IA (por exemplo, Microsoft Co-Pilot) é muito diferente. O algoritmo pode aprender com qualquer coisa a que nós damos acesso em vários dispositivos, o que tem principalmente benefícios (por exemplo, escrever e-mails mais rápido), mas também tem um grande lado obscuro (por exemplo, imaginemos uma violação de dados e, com base nos nossos dados, golpistas podem usar a IA para imitar vozes de entes queridos).
- Não pode ser desfeito. O que é que isso significa? Uma vez que um algoritmo tem acesso aos nossos dados, este é treinado com os mesmos e isso não tem volta a dar. Assim, quando concedemos permissão, os dados tornam-se parte da base de conhecimento do algoritmo.
- Potencial uso indevido. Assim, de certa forma, adotar co-pilotos para fins pessoais parece quase um “Pacto Faustiano”, onde trocamos os nossos dados pessoais (ou seja, alma) por produtividade e conveniência (ou seja, benefícios mundanos). Isto não quer dizer que empresas como a Microsoft ou a Google têm intenções maliciosas, no entanto, o caso da Cambridge Analítica lembra-nos da natureza imprevisível do uso indevido de dados.
Portanto, acredito que o uso de co-pilotos nas empresas faz sentido e é menos arriscado. As empresas dispõem dos recursos necessários para estabelecer medidas adequadas de proteção de dados e a utilização de co-pilotos pode aumentar significativamente a produtividade e a inovação. No entanto, os indivíduos devem ser cautelosos e bem informados antes de decidir usar tais ferramentas. Nada pode ser desfeito, não há como voltar atrás.
Observem que, na verdade, eu não usei realmente o Microsoft Co-pilot e os pontos que faço são o resultado de discussões que tivemos. No entanto, sinto que é importante sermos cautelosos e estar cientes do que pode acontecer.