Gartner: 34% das empresas já estão usando ou implementando ferramentas de segurança com IA

17 de outubro de 2023

por Redação da Abranet

O Gartner divulgou que 34% das companhias já estão usando ou implementando ferramentas de segurança de aplicativos com inteligência artificial (IA) para mitigar os riscos associados à inteligência artificial generativa (GenAI, na sigla em inglês). Os dados são da pesquisa Gartner Peer Community, realizada de 1 a 7 de abril deste ano com 150 líderes de TI e segurança da informação de empresas, nas quais a inteligência artificial generativa está em uso ou implementação.  Cerca de 26% dos entrevistados afirmaram, também, que estão atualmente usando ou implementando tecnologias de melhoria da privacidade (PET), ModelOps (25%) ou monitoramento de modelos (24%).  Em nota à imprensa, Avivah Litan, vice-presidente e analista do Gartner, explicou que os líderes de TI, segurança e gerenciamento de riscos devem, além de implementar ferramentas de segurança, considerar apoiar a estratégia empresarial para gerenciamento de confiança, riscos e segurança (AI TRiSM). Litan apontou que esse gerenciamento trabalha com fluxos de dados e processos entre usuários e empresas que hospedam modelos generativos de base de IA e deve ser um esforço contínuo, não um exercício único para proteger as empresas. A TI tem responsabilidade final pela segurança da inteligência artificial generativa. Embora 93% dos líderes de TI e segurança entrevistados tenham afirmado que estão pelo menos um pouco envolvidos nos esforços de segurança e gestão de riscos da Inteligência Artificial Generativa da sua empresa, apenas 24% afirmaram que possuem essa responsabilidade. Entre os entrevistados que não possuem o encargo pela segurança e/ou gerenciamento de riscos, 44% relataram que a responsabilidade final era de TI. Para 20% dos entrevistados, os departamentos de governança, risco e conformidade de suas empresas eram os responsáveis.  Entre os riscos mais importantes estão aqueles associados à inteligência artificial generativa são significativos, contínuos e evoluirão constantemente. Os entrevistados da pesquisa indicaram que resultados indesejáveis ​​e código inseguro estão entre os riscos mais lembrados ao usar a tecnologia: 57% dos entrevistados estão preocupados com o vazamento de segredos em códigos gerados por Inteligência Artificial; e 58% dos entrevistados estão preocupados com resultados incorretos ou tendenciosos. 

leia

também