Como garantir a governança de IA em sua organização

A inteligência artificial tem um grande potencial, mas também apresenta riscos tanto para a segurança quanto para a alucinação. Descubra como você pode garantir o uso seguro da IA em sua organização sem impedir que sua equipe a use para criatividade e inovação.

As ferramentas de inteligência artificial (IA) estão preparadas para revolucionar a maneira como todos nós fazemos negócios. É empolgante ver os computadores realizarem tarefas cotidianas no local de trabalho para nós simplesmente digitando algo para que eles façam isso.

Portanto, não é de se admirar que trabalhadores de todo o mundo estejam correndo para experimentar ferramentas como o ChatGPT para ver o que elas podem fazer e como podem aumentar a produtividade. No entanto, é importante que você tenha cuidado.

Recentemente, a Samsung descobriu que funcionários inseriam códigos proprietários no ChatGPT para testar seus recursos de correção de bugs. Isso não apenas permitiu que o fornecedor do ChatGPT, a OpenAI, visualizasse o código, mas também poderia ter ensinado ao ChatGPT a estrutura do código, o que significa que ele poderia gerar amostras de código em resposta às solicitações de outros usuários.

A Samsung, no entanto, percebeu que proibir os funcionários de usar a ferramenta não era uma maneira eficaz de proteger sua organização. Em vez disso, eles forneceram aos funcionários uma instância privada do ChatGPT que não era legível para a OpenAI e não enviava informações para usuários fora da Samsung. Isso permite que os funcionários da Samsung continuem a fazer experiências com o ChatGPT e a encontrar novas maneiras de aproveitar seu potencial, mas em um ambiente seguro onde não podem colocar a empresa em risco. Permitir o uso de ferramentas de IA dentro dos limites protegidos necessários será essencial para que você possa realizar com sucesso o potencial das ferramentas.

Avançando na adoção da IA

A inteligência artificial tem um potencial incrível. Analisar conjuntos de dados ricos e tomar decisões estratégicas com muito mais rapidez do que um ser humano já é impressionante, mas a capacidade da IA generativa de produzir conteúdo que soa humano e código de programação funcional instantaneamente é um divisor de águas.

Se você impedir que sua equipe tire proveito dessas ferramentas, ela será menos produtiva do que seus concorrentes, que estão permitindo que a equipe faça uso da IA generativa. Isso, por si só, colocará você em desvantagem competitiva.

No entanto, a IA generativa também pode ser usada para ideação, e as organizações que não conseguirem tirar proveito disso poderão ter dificuldades para competir de forma criativa. Portanto, é fundamental que as equipes de TI e os arquitetos corporativos sejam capazes de capacitar suas organizações com ferramentas inovadoras de IA.

Isso requer conhecimento do mercado de IA em evolução, para que os arquitetos corporativos possam encontrar as ferramentas de que seus colegas precisam para ter sucesso. Mais desafiador, no entanto, é identificar o melhor lugar para encaixar essas ferramentas em seu cenário de TI.

Para capacitar adequadamente sua organização com ferramentas de IA, os arquitetos corporativos precisam começar com um mapa completo do seu portfólio de aplicativos e do cenário de dados. No entanto, colocar as ferramentas em prática é apenas o começo do seu trabalho.

Protegendo sua organização

As ferramentas de inteligência artificial (IA) são muito importantes porque podem agir sem instruções diretas, reduzindo o estresse sobre seus recursos. As IAs podem analisar dados para obter inteligência, direcionar recursos para onde eles são necessários, eliminar investimentos desperdiçados usando algoritmos preditivos e até mesmo criar um novo software antes que você perceba que precisa dele.

A questão, entretanto, é: o que acontece quando a IA comete erros? Nada é infalível e, mesmo que haja 1% de chance de erro, os erros ainda ocorrerão.

É claro que isso não é mais do que você pode dizer sobre um ser humano. Tanto os seres humanos quanto as IAs cometem erros, mas o problema é que os seres humanos podem identificar e corrigir seus erros quando os cometem.

A IA, no entanto, não consegue autodiagnosticar seus próprios problemas. A IA não só tem dificuldade para reconhecer erros, como também costuma criar evidências fictícias para tentar provar que está certa, o que é conhecido como “alucinação” da IA.

No entanto, essa não é uma preocupação teórica. Há muitos exemplos recentes no mundo real de IA que causam problemas reais para as organizações.

Quando a IA dá errado

Recentemente, a Microsoft dispensou 50 redatores de sua divisão de notícias para usar inteligência artificial (IA) generativa para escrever artigos. Isso causou constrangimento quando a IA listou um banco de alimentos beneficente em Ottawa, Canadá, como um local popular para os turistas visitarem.

Mais seriamente, um tribunal distrital de Manhattan multou recentemente o escritório de advocacia Levidow, Levidow, & Oberman em US$ 5.000,00 por usar precedentes legais em seus casos que haviam sido derivados de pesquisas feitas no ChatGPT. Descobriu-se que os precedentes haviam sido completamente fabricados pela ferramenta de IA.

Isso não é uma ação mal-intencionada ou uma falsa capacidade, é simplesmente porque as ferramentas de IA generativas não conseguem distinguir entre informações factuais e ficção criativa. Esses são apenas alguns exemplos de ferramentas de IA que se tornam desonestas.

O mau uso da IA generativa é uma coisa, mas quando você permite que as plataformas de IA controlem sua logística ou monitorem seus dados em busca de ataques cibernéticos, os erros podem ser críticos. O que acontece quando sua IA bloqueia o acesso à sua rede por achar que todos os seus funcionários são invasores cibernéticos ou, pior ainda, quando acredita que um invasor cibernético é um usuário legítimo e dá a ele controle total?

Ao aproveitar as ferramentas de IA, você deve implementar as proteções corretas para garantir a supervisão humana da inovação da IA. No entanto, você precisa fazer isso sem se tornar um bloqueador da vantagem competitiva que as ferramentas de IA podem oferecer.

Encontrando o equilíbrio certo

A inteligência artificial (IA) tem um potencial incrível e aqueles que não a aproveitam correm o risco de ficar para trás no mercado. No entanto, vimos que há riscos enormes envolvidos no uso não supervisionado dessas ferramentas.

Você não pode simplesmente permitir que seus funcionários tenham rédea solta (“IA sombra”) para aproveitar essas ferramentas em toda a sua organização, mas também não pode impedir que ela utilize a inovação da IA. Para encontrar o equilíbrio certo, você precisa ajudar na adoção da IA e, ao mesmo tempo, garantir a governança da IA.

A chave aqui é gerenciar suas plataformas de IA como você faria com um funcionário. Deixe que elas façam o trabalho enquanto sua organização supervisiona a atividade e monitora o desempenho delas.

Para isso, você precisa criar uma estrutura de governança de IA para avaliar e aprovar ferramentas para uso em sua organização, supervisionar a inclusão delas em seu portfólio de aplicativos e, em seguida, continuar a monitorá-las e garantir sua utilidade no futuro. Em vez de bloquear a inovação da IA, os arquitetos corporativos devem se tornar campeões, fornecendo, implementando e desenvolvendo o uso de ferramentas de IA sempre que possível.

Ao se tornar aquele que diz “sim” à IA com mais frequência, você também se tornará aquele a quem as pessoas estarão mais propensas a ouvir quando você tiver que dizer “não”. No entanto, fazer isso significa reunir inteligência suficiente para que você possa dizer “sim” com confiança quando for seguro fazê-lo.

O LeanIX acompanha seu portfólio de IA

O gerenciamento de plataformas de inteligência artificial (IA) exige que os arquitetos corporativos compreendam os recursos e as limitações das ferramentas de IA para que possam implementá-las da melhor forma possível em seu portfólio de aplicativos e no cenário de TI. Eles precisam saber onde é seguro usá-las e onde não é.

Obter essa visão do seu portfólio de aplicativos permitirá que você diga “sim” à inovação em IA sem riscos. Para fazer isso, você precisa da plataforma LeanIX para mapear todo o seu portfólio de aplicativos em um ambiente colaborativo e dinâmico.

Você gostaria de saber mais sobre como o SAP LeanIX pode apoiar sua jornada de transformação, migração para o S/4HANA e reduzir custos e riscos tecnológicos?

Entre em contato conosco e agende uma demonstração!!! A NUMEN é o parceiro capaz de ajudar você nessa jornada!

Transforme seu negócio hoje mesmo

Libere o potencial de seus negócios com nossas soluções e serviços especializados.

Receba nossas atualizações

Se inscreva em nossa newsletter para receber as últimas notícias e atualizações

Subscription Form

Ao se inscrever, você concorda com a nossa Política de Privacidade.