As empresas de tecnologia precisam levar os riscos de segurança cibernética mais a sério
Um importante especialista em segurança cibernética levantou preocupações de que os regulamentos não serão suficientes para lidar com os sérios riscos apresentados pela IA.
A Kroll, uma empresa de avaliação de riscos financeiros e de segurança, pediu às empresas de tecnologia que deem maior importância à proteção cibernética. Os comentários vêm em resposta às novas propostas do governo do Reino Unido sobre a melhor maneira de regular a IA.
O white paper do governo anunciou uma "estrutura pró-inovação" projetada para facilitar a inovação "responsável" e apoiar o Reino Unido como líder global em tecnologia de IA.
Em vez de criar um novo regulador, o governo pediu aos reguladores existentes que assumissem autoridade para o uso de Inteligência Artificial em seus setores. Não haverá obrigações legais para os reguladores agirem.
Keith Wojciesezek, chefe global de inteligência de ameaças da Kroll, disse que a responsabilidade recai sobre as empresas de adotar uma postura mais proativa sobre como elas gerenciam os riscos apresentados pela IA.
"As empresas precisam se preocupar com a proteção cibernética desde o início, não como um exercício de seleção de caixa regulatória", disse ele.
As ferramentas de IA podem ser usadas para conduzir ataques cibernéticos altamente direcionados. Recentemente, foi demonstrado que o Chat GPT era capaz de criar uma campanha de phishing " convincente" para enganar pessoas desavisadas e fazê-las abrir mão de seu dinheiro.
Com rumores de que uma versão atualizada do chatbot está a caminho, os riscos de segurança cibernética devem aumentar.
Wojciesezek está preocupado que o rápido desenvolvimento da IA, onde o aprendizado baseado em algoritmo permite que os processos sejam desenvolvidos sem supervisão humana, pode superar os esforços dos reguladores para controlá-lo.
"À medida que surgem mais ferramentas de IA e versões de código aberto, os hackers provavelmente conseguirão contornar os controles adicionados aos sistemas", disse Wojciesezek. Ele acrescentou ainda: "Eles podem até usar ferramentas de IA para vencer os controles sobre o sistema de IA que desejam abusar".
Em geral, há preocupações de que as empresas estejam priorizando o desenvolvimento mais rápido possível da inteligência artificial sem considerar a segurança cibernética e o potencial mais amplo de danos. Wojciesezek se referiu a isso como uma "corrida armamentista de IA total".
A Microsoft deve investir US$ 10 bilhões na OpenAI, criadora do ChatGPT, enquanto o Google respondeu acelerando os esforços para lançar seu próprio chatbox orientado a buscas, o Bard.
Tais desenvolvimentos levaram os líderes globais de tecnologia, incluindo Elon Musk, a pedir a suspensão dos "gigantes experimentos de IA". Eles acreditam que os governos devem estar preparados para impor uma moratória no desenvolvimento da tecnologia por seis meses, enquanto pesquisas são feitas para garantir que os sistemas sejam mais seguros e confiáveis.
A resposta do Reino Unido à regulamentação da IA já foi criticada por não abordar os riscos. Simon Elliott, sócio do escritório de advocacia Dentons , disse à BBC que a abordagem do governo foi um "toque leve" que torna o Reino Unido "um caso atípico" em comparação com outras partes do mundo.
A UE propôs um ato específico para cobrir a regulamentação da IA, enquanto no mês passado, a Câmara de Comércio dos EUA contrariou sua postura anti-regulatória geral, para pedir mais regulamentação.
As propostas do Reino Unido são projetadas para fortalecer a posição do Reino Unido como líder global em IA e aproveitar a capacidade da tecnologia para impulsionar o crescimento e a prosperidade. A nação estabeleceu 5 princípios-chave.
- Segurança, proteção e robustez
- Transparência e explicabilidade adequadas
- imparcialidade
- Responsabilidade e governança
- Contestação e reparação
Com essas novas propostas, serão aplicados sistemas de IA funcionando de maneira segura e segura, com avaliação de risco feita de forma contínua. Informações sobre como, quando e para qual finalidade o sistema está sendo usado devem ser comunicadas às pessoas relevantes de uma forma que seja fácil de entender.
Além disso, o Reino Unido está priorizando que a tecnologia de IA não prejudique os direitos legais de indivíduos ou organizações, discrimine indivíduos ou crie resultados de mercado injustos.
Muitos concordaram que medidas devem ser implementadas para garantir uma supervisão eficaz do uso de sistemas de IA, com linhas claras de responsabilidade estabelecidas. As decisões e os resultados da IA devem poder ser contestados e alterados pelos usuários do serviço e outras partes afetadas.
© Copyright 2024 IBTimes UK. All rights reserved.