Brasil,

IA Generativa e Segurança: é possível conciliar?

  • Crédito de Imagens:Divulgação - Escrito ou enviado por  Maria Clara Polcan
  • SEGS.com.br - Categoria: Seguros
  • Imprimir

Manny Rivelo, CEO da Forcepoint

No vasto cenário da inteligência artificial (IA), um novo “player” tem dominado as atenções. Ferramentas de IA generativa como ChatGPT e Bard capturaram a imaginação do mundo, criando tudo rapidamente e sem muito esforço, de receitas de bolo a sinfonias completas. No entanto, os profissionais de segurança cibernética e os líderes empresariais precisam ter em mente que cada colaboração com ChatGPT também traz algumas considerações.

Já vemos casos em que engenheiros com conhecimento técnico o suficiente são capazes de criarem um ataque de malware Zero Day sem escrever uma única linha de código, apenas fazendo as perguntas certas ao ChatGPT. Os riscos que estas ferramentas generativas de IA representam para a sua organização são reais, como também as oportunidades para resultados positivos, como a geração de novas receitas e ganhos de produtividade.

A capacidade de aproveitar o poder da IA para criar medicamentos, abrir caminhos para o crescimento e revolucionar o atendimento ao cliente, faz com que não aproveitar seu potencial seja prejudicial às vantagens competitivas que sua empresa pode ter. Adicione à equação que negar aos funcionários o acesso a ferramentas que eles consideram essenciais para o seu trabalho apenas os levará a caminhos desconhecidos e possivelmente perigosos.

O risco de exposição à propriedade intelectual
ChatGPT, Bard e outros chatbots de IA generativos alimentam-se de dados, tornando-se mais fortes e mais capazes a cada byte. Seu apetite voraz por conhecimento aumenta sua capacidade de criar conteúdos rapidamente. Eles usam algoritmos, modelos generativos e técnicas de aprendizado profundo para extrair dados de treinamento. Isso pode levar a uma imensa criatividade e produtividade, pois coisas novas são produzidas em uma fração do tempo que levaria a um ser humano.
O perigo, ao contrário do que se imagina, não é que estas ferramentas de IA roubem os nossos empregos, mas sim que exponham ao mundo nossas informações mais preciosas. Hoje, as ferramentas generativas de IA estão acessíveis aos seus funcionários através de websites e aplicações, e é nesta mistura de dados e da Internet que reside o risco.
Os dados da sua organização já estão espalhados, residindo em dispositivos pessoais e corporativos, aplicativos SaaS e na nuvem. Com um único movimento descuidado ou malicioso, suas informações confidenciais podem ser divulgadas no chat, deixando seus segredos comerciais vulneráveis a hackers.
A melhor defesa é trazer à luz essas ferramentas de IA, onde você possa controlar o acesso e aproveitar seu poder por meio de uma abordagem de zero-trust.

Adotando a segurança de Zero-Trust "Data-First"
Para mitigar os potenciais danos, as empresas devem adotar uma abordagem de Zero-Trust para proteger os seus dados e permitir o acesso a aplicações de IA. A proteção de dados torna-se fundamental à medida que o potencial para violações de informações continua a crescer. Você pode defender sua organização contra riscos relacionados à IA generativa implementando as estratégias a seguir:
1. Limite e controle o acesso. Estabeleça uma política de segurança corporativa para o uso de ferramentas de IA garantindo que todos os funcionários sigam as mesmas diretrizes de forma consistente. Aplique esta política com soluções como secure web gateways (SWG) e cloud access security brokers (CASB), que regulam o acesso a sites e versões SaaS de ferramentas de IA. Quando necessário, redirecione os visitantes para aplicativos aprovados e sancionados, em vez de sites de IA não sancionados.
2. Consolidar e simplificar a gestão. Unifique as políticas de segurança e simplifique o gerenciamento em vários canais e dispositivos para evitar violações de dados. Dessa forma, sua organização pode gerenciar diferentes ferramentas generativas de IA com uma única política, independentemente de os funcionários acessá-las em laptops da empresa ou em telefones pessoais. Permita que sua força de trabalho híbrida use IA com segurança enquanto monitora e controla facilmente as permissões.
3. Pare a perda de dados e IP. Implemente medidas de segurança de dados que habilitem a IA e protejam usuários/aplicativos para evitar a cópia ou colagem não autorizada de informações confidenciais (PII, PHI, IP, etc.) de fontes como e-mail e documentos comerciais. Integre políticas de prevenção contra perda de dados na web e em nuvens públicas para fortalecer ainda mais sua segurança contra a lista crescente de chatbots de IA recentemente disponíveis.

A IA generativa é uma faca de dois gumes; é uma parceria que pode gerar grandes prêmios ou armadilhas para o seu negócio. Restringir o acesso ao ChatGPT apenas aumenta o risco de shadow IT, e sufoca a produtividade. Por outro lado, deixar o acesso descontrolado abre a caixa de Pandora para um mundo de perigos ocultos. O caminho mais sensato é controlar o uso da IA e capacitar sua força de trabalho com segurança.

Ao aplicar de forma pragmática os princípios de Zero-Trust, sua empresa pode aproveitar o poder da IA generativa para impulsionar a eficiência e a produtividade. Visualize um mundo onde o ChatGPT ocupará seu lugar em sua lista de tecnologias sancionadas, assim como os dispositivos, sites ou aplicativos SaaS que você usa hoje. Com uma abordagem ponderada à IA generativa, as organizações não precisam ficar à margem. Eles podem adotar o ChatGPT com confiança para colher os frutos e, ao mesmo tempo, minimizar os riscos.


Compartilhe:: Participe do GRUPO SEGS - PORTAL NACIONAL no FACEBOOK...:
 
https://www.facebook.com/groups/portalnacional/

<::::::::::::::::::::>
IMPORTANTE.: Voce pode replicar este artigo. desde que respeite a Autoria integralmente e a Fonte...  www.segs.com.br
<::::::::::::::::::::>
No Segs, sempre todos tem seu direito de resposta, basta nos contatar e sera atendido. -  Importante sobre Autoria ou Fonte..: - O Segs atua como intermediario na divulgacao de resumos de noticias (Clipping), atraves de materias, artigos, entrevistas e opinioes. - O conteudo aqui divulgado de forma gratuita, decorrem de informacoes advindas das fontes mencionadas, jamais cabera a responsabilidade pelo seu conteudo ao Segs, tudo que e divulgado e de exclusiva responsabilidade do autor e ou da fonte redatora. - "Acredito que a palavra existe para ser usada em favor do bem. E a inteligencia para nos permitir interpretar os fatos, sem paixao". (Autoria de Lucio Araujo da Cunha) - O Segs, jamais assumira responsabilidade pelo teor, exatidao ou veracidade do conteudo do material divulgado. pois trata-se de uma opiniao exclusiva do autor ou fonte mencionada. - Em caso de controversia, as partes elegem o Foro da Comarca de Santos-SP-Brasil, local oficial da empresa proprietaria do Segs e desde ja renunciam expressamente qualquer outro Foro, por mais privilegiado que seja. O Segs trata-se de uma Ferramenta automatizada e controlada por IP. - "Leia e use esta ferramenta, somente se concordar com todos os TERMOS E CONDICOES DE USO".
<::::::::::::::::::::>

voltar ao topo

Adicionar comentário

Aja com responsabilidade aos SEUS COMENTÁRIOS, em Caso de Reclamação, nos reservamos o Direito, a qualquer momento de Mudar, Modificar, Adicionar, ou mesmo Suprimir os comentarios de qualquer um, a qualquer hora, sem aviso ou comunicado previo, leia todos os termos... CLIQUE AQUI E CONHEÇA TODOS OS TERMOS E CONDIÇÕES DE USO. - O Nosso muito obrigado - Ferramenta Automatizada...IMPORTANTE: COMENTÁRIOS com LINK são bloqueados automaticamente (COMMENTS with LINKS are automatically blocked.)...Sucesso!

Security code Atualizar

Enviar