representação de cérebro em forma pixelada 3d sobre fundo azul

Tecnologia

IA generativa exige das empresas gestão de governança de TI responsável, dizem especialistas

Publicado por: Broadcast Exclusivo

conteúdo de tipo Leitura3 minutos

Atualizado em

27/06/2024 às 13:46

Por Adriana Chiarini, do Broadcast

São Paulo, 27/06/2024 - Há uma grande preocupação em todo o mundo, por parte de empresas e instituições, além de governos e entidades internacionais sobre o desenvolvimento responsável da Inteligência Artificial (IA) generativa, que é capaz de gerar conteúdo por si própria, e ainda é muito nova. A governança de TI ganhou importância nesse contexto.

A IA generativa é "uma tecnologia sem muito controle", comentou a gerente executiva de IA e Analytics do Banco do Brasil, Giuliane Paulista, e por isso "a governança ganha uma importância muito grande" neste contexto. Ela falou no painel "Ampliando os resultados da IA com uma governança responsável", realizado no estande do Banco do Brasil na Febraban Tech.

Telma Luchetta, líder de estrutura de dados e IA na América Latina da EY, além de líder de grupo de diversidade e inclusão para serviços financeiros na consultoria, disse que o engajamento e adesão da empresa à governança é o ponto crítico. "O aspecto político é o mais difícil", afirmou.

Ela destacou a importância da supervisão humana contra o poder discriminatório de algoritmo. "Não dá para deixar rodando e aprendendo. Tem que fazer uma manutenção", enfatizou. Para a consultora, cada empresa tem que se responsabilizar por toda a ação de desenvolvimento de IA. "As pessoas têm que querer ser autorresponsáveis pelo que vão desenvolver."

Pesquisa recente da Faculdade de Direito de Harvard aponta que 13% das empresas do S&P 500 têm algum cargo de diretor de governança de IA. "Então, as empresas estão se preocupando para que a inovação que seja feita, seja segura", disse o gerente de validação de modelos de IA e machine learning do BB, Eduardo Rubik. Além disso, os bancos têm vantagem em governança de IA porque desde o acordo de supervisão bancária global conhecido como Basileia 2, em 2004, já discutem riscos de modelos.

De acordo com ele, a IA generativa deixou os riscos mais evidentes. Rubik observou que o trabalho com dados de pessoas, chamado de "people analytics", exige ética para não ter viés discriminatório. "Tanto que há grande empresas que contratam filósofos para o trabalho com IA", argumentou. Para ele, fazer IA responsável é fazer modelos bons. "E modelos bons são éticos, têm justiça", disse Rubik.

Ele ressaltou a importância de escalabilidade, já que o BB, por exemplo, lida com milhares de modelos. No Banco do Brasil, contou, antes de desenvolver um modelo para IA já se sai com princípios e condições de governança que deve atender.

Os especialistas também enfatizaram a importância de testar o modelo de IA antes de colocá-lo para funcionar realmente. No BB, um modelo de IA passa antes por validação de controles internos, comitê de riscos e avaliação de privacidade, camadas estas que vão favorecer a qualidade do modelo quando da sua implementação, completou Giuliane Paulista.

Quer dar uma nota para este conteúdo?

Utilizamos cookies para oferecer uma melhor experiência e personalizar os conteúdos de acordo com a nossa

Política de Privacidade.