INOVA
Os casos de uso e riscos da IA generativa

Os casos de uso e riscos da IA generativa

Num novo estudo, a Forrester identificou os departamentos de negócios com maior probabilidade de adotar IA generativa, os principais casos de uso e os riscos de segurança

Os casos de uso da IA generativa continuam a crescer à medida que a tecnologia é introduzida a todo o tipo de produtos, serviços e tecnologias. Um estudo da Salesforce com mais de 500 líderes seniores de IT revelou que, embora a 67% priorize a IA generativa nos negócios nos próximos 18 meses, quase todos admitem que medidas extras são necessárias para resolver problemas de segurança e para aproveitar com sucesso a tecnologia.

Os dados indicam que a maioria das organizações vai comprar IA generativa, inclusivamente de forma direta, em vez de através de integrações agrupadas. Desta forma, os especialistas da Salesforce indicam que é vai ser necessário que os líderes de segurança invistam tempo para entender os diferentes casos de uso de IA generativa nos seus negócios, bem como os riscos associados.

Um novo relatório da Forrester identificou os departamentos de negócios com maior probabilidade de adotar IA generativa, os principais casos de uso e as ameaças e riscos de segurança contra os quais as equipas vão precisar de se defender à medida que a tecnologia se populariza.

Marketing: Os geradores de texto permitem que os profissionais de marketing produzam instantaneamente copy para campanhas, o que, segundo a Forrester, introduz potenciais violações e exfiltração de dados e ameaças de inteligência competitiva. Os riscos incluem questões de relações públicas/clientes relacionadas com o lançamento de texto devido a pobres processos de supervisão e governance.

Design: as ferramentas de geração de imagens permitem que os designers modelem ideias com o mínimo de tempo/esforço, dizem os peritos. Também podem ser integrados em fluxos de trabalho mais amplos. Os riscos a serem considerados são restrições de design e políticas que não estão a ser seguidas devido a problemas de integridade de dados e possíveis problemas de direitos de autor/IP do conteúdo gerado.

IT: Os programadores utilizam LLM para encontrar erros no código e gerar documentação automaticamente. Em termos de riscos, pode levar a violação e exfiltração de dados e ameaças à integridade de dados, enquanto a documentação produzida pode correr o risco de revelar detalhes importantes do sistema que uma empresa normalmente não divulgaria.

Developers: Os TuringBots ajudam os developers a escrever código de protótipo e a implementar sistemas de software complexos, o que pode introduzir problemas de segurança de código (com código que não segue as práticas de segurança SDLC), adulteração de dados, ransomware e roubo de IP, de acordo com a Forrester. 

Cientistas de dados: A IA generativa permite os que cientistas de dados produzam e compartilhem dados para treinar modelos sem arriscar informações pessoais. O risco associado está relacionado ao modelo de geração de dados sintéticos ser feito com engenharia reversa, “permitindo que os atacantes identifiquem os dados de origem usados”, disse a Forrester.

Vendas: a tecnologia ajuda as equipas de vendas a produzir ideias, usar linguagem inclusiva e criar conteúdos. Contudo, segundo a Forrester, “as equipas de vendas podem violar as preferências de contato ao gerar e distribuir conteúdo”.

Operações: As operações internas usam IA generativa para elevar a inteligência da organização. O risco é que os dados usados para fins de tomada de decisão possam ser adulterados, levando a conclusões e implementações imprecisas, escreveu a Forrester. 

RECOMENDADO PELOS LEITORES

NEWSLETTER

Receba todas as novidades na sua caixa de correio!

O nosso website usa cookies para garantir uma melhor experiência de utilização.