Oito tendências e previsões sobre identidade digital para 2024
À medida que o novo ano se aproxima, cada vez mais o panorama da identidade digital aponta para avanços significativos, com inovações para redefinir a verificação, elevar os padrões de segurança e melhorar a experiência dos usuários
O volume de ataques de identidade gerados por IA aumentou em 2023 a tal nível que se tornou um tema que afeta consumidores, organizações e até líderes mundiais. A biometria representa uma força transformadora na forma como os indivíduos interagem com os sistemas digitais e como as organizações protegem informações confidenciais, e, à medida que 2024 se aproxima, cada vez mais o panorama da identidade digital aponta para avanços significativos, com inovações delineadas para redefinir a verificação, elevar os padrões de segurança e melhorar a experiência dos usuários.
Para compreender o iminente futuro da biometria, a iProov selecionou oito principais tendências e previsões que devem afetar o mercado de identidade digital em 2024. Confira.
A biometria se tornará a pedra angular da infraestrutura de segurança do mercado de serviços financeiros
No ano passado, muitas organizações de serviços financeiros expandiram o acesso digital remoto para atender a uma demanda dos usuários. No entanto, isso ampliou a superfície de ataque digital e criou oportunidades para fraudadores. Nos EUA, esse setor tem sido mais lento na adoção de tecnologias de identidade digital do que outras regiões, o que pode ser atribuído aos desafios que o país enfrenta em termos de regulação da interoperabilidade e do intercâmbio de dados. No entanto, com a expectativa de que a fraude de identidade sintética gere pelo menos US$ 23 bilhões em perdas até 2030, a pressão deve aumentar.
Os consumidores esperam abrir contas e acessar serviços remotamente com rapidez e facilidade, enquanto os fraudadores minam a segurança de canais online para desviar dinheiro. Ao mesmo tempo, existe a séria ameaça de não conformidade às práticas de Conheça o seu Cliente (KYC – Know Your Customer) e de Combate à Lavagem de Dinheiro (AML - Anti Money Laundering). As penalidades para isso incluem multas pesadas e até processos criminais. Mas há um risco aumentado de escapar às sanções, além de financiar adversários de governos.
Como resposta, muitas instituições financeiras estão sendo incitadas a tomarem medidas que envolvem a troca de processos complicados de integração e a substituição de métodos desatualizados de autenticação, como senhas e códigos de acesso, por tecnologias avançadas que permitem integrar e autenticar remotamente os clientes de serviços bancários on-line.
Na linha de frente, está uma tecnologia pioneira, de verificação biométrica facial, que oferece conveniência e acessibilidade incomparáveis aos usuários e, ao mesmo tempo, desafios de segurança inigualáveis para os criminosos.
Devemos ver mais instituições financeiras reconhecendo como a verificação biométrica pode remodelar e redefinir o impacto positivo da tecnologia no equilíbrio entre a segurança e a experiência do cliente, e a partir daí, farão a mudança em seus sistemas.
Haverá um rápido aumento no número de países em desenvolvimento que criam programas de identidade digital baseados em identidade descentralizada
Estima-se que 850 milhões de pessoas em todo o mundo não têm uma forma legal de identificação e, sem uma identidade, as dificuldade vão desde abrir uma conta bancária, conseguir um emprego e até acessar serviços como os de saúde, situações estas que as tornam financeira e socialmente excluídas.
Os programas de identidade digital melhoram a acessibilidade a serviços e oportunidades digitais ao permitir que as pessoas afirmem a sua identidade e possam utilizar plataformas online, além de participar de iniciativas governamentais digitais.
Apoiados por recursos do Banco Mundial, os programas de identidade digital podem ajudar as economias menos avançadas a evitar roubo de identidade e fraudes, além de proporcionar uma forma alternativa de as pessoas provarem a sua identidade e terem acesso a serviços essenciais como benefícios, incluindo saúde e educação.
Com base em uma identidade descentralizada, esses programas permitirão aos usuários armazenar e trocar digitalmente documentos de identidade, como a carteira de habilitação, e credenciais variadas, como diplomas, e autenticar essas pessoas sem a necessidade de uma autoridade central.
Uma identidade descentralizada coloca o usuário no controle da informação, ao permitir que ele gerencie a sua identidade em uma abordagem distribuída. Ela também proporcionará a conveniência que os utilizadores finais exigem e abrirão vias essenciais para que indivíduos anteriormente desfavorecidos ou marginalizados tenham acesso desde serviços financeiros àqueles relacionados ao seu bem-estar.
Videochamadas remotas para verificação de identidade devem desaparecer
Videochamadas para verificação de identidade envolvem uma conexão de vídeo entre um operador treinado e a pessoa a ser verificada, que é solicitada a mostrar um documento de identidade para que seja comparado ao seu rosto, na câmera. No entanto, foi comprovado que a verificação por videochamada fornece pouca garantia de que o usuário seja uma pessoa “viva” e não imagens produzidas por Inteligência Artificial (IA) generativa, sobrepostas de forma convincente ao rosto do ator da ameaça.
Em 2022, investigadores do Chaos Computer Club conseguiram contornar a tecnologia de verificação de videochamadas utilizando IA generativa e forjar uma identificação. O caso demonstrou como essa tecnologia e os operadores humanos dos quais ela depende são altamente suscetíveis a ataques de imagens sintéticas. Desde então, o Escritório Federal Alemão para Segurança da Informação alertou contra a verificação de videochamadas por sua vulnerabilidade a esses ataques.
Se não forem capazes de se defender da ameaça das deepfakes na integração e autenticação, os programas de identidade digital poderão ser explorados para fins criminosos, como fraude de pagamentos, lavagem de dinheiro e financiamento ao terrorismo.
Como consequência, devemos observar movimentos dos órgãos reguladores de serviços financeiros no sentido de banir os métodos de verificação por videochamadas, orientando a escolha de métodos mais confiáveis, baseados em soluções híbridas que combinem correspondência automatizada de IA e detecção de prova de vida com supervisão humana do processo de aprendizagem automática.
As organizações introduzirão autenticação mútua entre funcionários para comunicação de alto risco e para integração remota de novos colaboradores
À medida que as organizações dependem cada vez mais de meios digitais para comunicação confidencial, a implantação de medidas robustas de cibersegurança é fundamental para mitigar as ameaças. A introdução da autenticação mútua para comunicações e transações de alto risco é uma medida de segurança imprescindível que acrescenta uma camada extra de proteção contra acessos não autorizados e ameaças potenciais. Além disso, em certas indústrias, a conformidade exige a implementação de medidas de segurança mais robustas. A autenticação mútua ajuda as organizações a atenderem esses requisitos de compliance, ao garantir canais de comunicação seguros e ao proteger informações confidenciais.
As violações de dados corporativos triplicarão devido a ataques bem-sucedidos gerados por IA
Por anos, organizações e indivíduos confiam em ferramentas de detecção de e-mails de phishing que se baseiam em erros ortográficos e gramaticais. Mas esse tempo já passou. A qualidade das respostas geradas pelo Chat GPT é tamanha que os agentes de ameaças agora podem usar a plataforma generativa para criar ataques de phishing de alta qualidade em comunicações muito convincentes, sem pistas suspeitas.
Em 2024, devemos testemunhar um aumento acentuado na qualidade e no volume dos ataques de phishing gerados por IA. O aprimoramento da capacidade de gerar alertas de segurança deve se tornar uma ferramenta redundante e as organizações serão forçadas a procurarem métodos alternativos e mais confiáveis para autenticar os usuários internos e externos das suas plataformas.
O preço de kits de síntese de voz e vídeo para crime como serviço vai cair para menos de US$ 100
A modalidade de crime como serviço e a disponibilidade de ferramentas de síntese de voz e de vídeo aceleram a evolução do cenário de ameaças ao permitir que os criminosos lancem ataques avançados mais rapidamente e em maior escala. Ataques bem-sucedidos devem aumentar em volume e frequência, assim como o risco de danos graves.
Os criminosos estão usando tecnologia sofisticada de IA generativa para criar e lançar ataques para explorar os sistemas de segurança das organizações, além de fraudar indivíduos.
A iProov vem constatando indicações semelhantes de criminosos pouco qualificados ganhando a capacidade de criar e lançar ataques avançados de imagens sintéticas. Nosso mais recente relatório de inteligência biométrica contra ameaças apontou o surgimento e o rápido crescimento de trocas de rostos em vídeo. Esse tipo de ameaça é uma das formas de imagem sintética na qual o criminoso combina mais de um rosto para criar uma imagem de vídeo 3D falsa.
O preço das ferramentas necessárias a esse tipo de ataques vem caindo rapidamente e devemos ter kits de Crime-as-a-Service custando menos de US# 100 muito em breve.
O potencial da IA para espalhar desinformação política fará com que a autoria autenticada de imagens e conteúdo escrito seja uma ferramenta legalmente exigida
À medida que as eleições se aproximam, devemos verificar uma infinidade de vídeos deepfake gerados por IA sendo usados para persuadir os eleitores. Para remediar essa situação, espera-se grandes iniciativas por parte das empresas de tecnologia no sentido de fornecer formas para as pessoas verificarem a autenticidade das imagens que são geradas. Isso inclui soluções que permitem às pessoas acrescentarem marcas d'água às imagens e assiná-las quando são criadas ou modificadas.
É provável que, em 2024, vejamos muitas tentativas nessa área porque o uso de deepfakes já está muito difundido. Desse modo, espera-se que seja um pré-requisito de qualquer conteúdo que utilize imagens oferecer alguma forma de garantir a sua autenticidade, e caso não inclua tal recurso, essa imagem tende a não ser valorizada.
Uma chamada por videoconferência gerada por IA causará a primeira fraude de CEO de US$ 1 bilhão
A fraude de CEOs atinge pelo menos 400 empresas todos os dias e representa uma ameaça significativa para organizações globalmente. Nesse tipo de crime, os invasores se passam por executivos seniores da empresa e tentam enganar os funcionários para que transfiram fundos, divulguem informações confidenciais ou iniciem outras atividades fraudulentas. Frequentemente, envolvem ataques sofisticados de engenharia social, o que os torna mais difíceis de detectar.
Ferramentas IA generativas estão sendo amplamente utilizadas por fraudadores para criar deepfakes para imitar uma pessoa. Os malfeitores agora podem criar áudios e imagens convincentes gerados por Inteligência Artificial e implantá-los em plataformas como o Zoom, o Microsoft Teams e o Slack. Sem ferramentas sofisticadas de monitoramento e detecção, é quase impossível identificar esse tipo de imagem sintética.
Nesse contexto, é muito provável que, em 2024, testemunhemos a primeira chamada de Zoom gerada por IA que levará a uma fraude de CEO de mais de US$ 1 bilhão.
Sobre iProov
A iProov é líder mundial em autenticação biométrica facial online, trabalhando com governos, bancos e outras empresas para verificar, com segurança, a identidade do cliente. É utilizado para integração e autenticação sem esforço pelo Departamento de Segurança Interna dos EUA, pelo Ministério do Interior do Reino Unido, pelo Serviço Nacional de Saúde do Reino Unido (NHS), pelo Australian Taxation Office, GovTech Singapore, Rabobank, ING e outros. As tecnologias da iProov incluem Liveness Assurance™ e Genuine Presence Assurance®, que garantem que um cliente online seja a pessoa certa, uma pessoa real, e que esteja se autenticando naquele momento. Isso protege contra ataques de falsificação de fotos, vídeos e máscaras, ataques de injeção digital e a ameaça emergente de deepfakes. A iProov foi reconhecida como Gartner Cool Vendor 2020 em gerenciamento de acesso de identidade e detecção de fraude. Para mais informações, consulte o site a iProov ou siga-nos no LinkedIn ou Twitter.
Compartilhe:: Participe do GRUPO SEGS - PORTAL NACIONAL no FACEBOOK...:
https://www.facebook.com/groups/portalnacional/
<::::::::::::::::::::>
IMPORTANTE.: Voce pode replicar este artigo. desde que respeite a Autoria integralmente e a Fonte... www.segs.com.br
<::::::::::::::::::::>
No Segs, sempre todos tem seu direito de resposta, basta nos contatar e sera atendido. - Importante sobre Autoria ou Fonte..: - O Segs atua como intermediario na divulgacao de resumos de noticias (Clipping), atraves de materias, artigos, entrevistas e opinioes. - O conteudo aqui divulgado de forma gratuita, decorrem de informacoes advindas das fontes mencionadas, jamais cabera a responsabilidade pelo seu conteudo ao Segs, tudo que e divulgado e de exclusiva responsabilidade do autor e ou da fonte redatora. - "Acredito que a palavra existe para ser usada em favor do bem. E a inteligencia para nos permitir interpretar os fatos, sem paixao". (Autoria de Lucio Araujo da Cunha) - O Segs, jamais assumira responsabilidade pelo teor, exatidao ou veracidade do conteudo do material divulgado. pois trata-se de uma opiniao exclusiva do autor ou fonte mencionada. - Em caso de controversia, as partes elegem o Foro da Comarca de Santos-SP-Brasil, local oficial da empresa proprietaria do Segs e desde ja renunciam expressamente qualquer outro Foro, por mais privilegiado que seja. O Segs trata-se de uma Ferramenta automatizada e controlada por IP. - "Leia e use esta ferramenta, somente se concordar com todos os TERMOS E CONDICOES DE USO".
<::::::::::::::::::::>
Adicionar comentário