Como não se meter em problemas ao usar IA no trabalho

Ame ou odeie, a IA está se tornando cada vez mais parte integrante da forma como trabalhamos.

Então, assim como muitos funcionários, você começou a usá-la em suas tarefas. Isso é ótimo — a menos que você não tenha clareza sobre o que define usos aceitáveis versus inaceitáveis da IA no seu trabalho e sobre quais ferramentas específicas seu empregador aprovou ou proibiu.

Veja como ter uma noção melhor de tudo isso e minimizar possíveis problemas, mesmo que seu empregador não tenha sido muito claro ao explicar essas questões.

1. Reconheça os limites da IA

A IA generativa pode ser impressionante — por exemplo, ajudando você a encontrar dados ou a fazer conexões que, de outra forma, poderiam passar despercebidas; ou ainda a testar entregas de trabalho em busca de falhas de design ou erros.

Ao mesmo tempo, ela também é altamente imperfeita e sujeita às chamadas “alucinações” — definidas pela IBM como “um fenômeno em que (a IA) percebe padrões ou objetos que são inexistentes ou imperceptíveis para observadores humanos, criando resultados sem sentido ou totalmente imprecisos”.

Em outras palavras, ela pode gerar um lixo completo.

Uma ferramenta de IA pode ser desculpada por seus defensores por causa dessas alucinações, mas você não será.

Por isso, quando se trata do seu trabalho, “nunca confie cegamente na IA”, disse Dave Walton, advogado que atua do lado dos empregadores e co-lidera o grupo de prática de IA, Dados e Análises da Fisher Phillips.

Em vez disso, encare-a como um apoio inicial. “A IA generativa é a melhor coisa do mundo para te levar do zero ao ‘não está ruim’ em 60 segundos”, disse Niloy Ray, co-líder da prática de IA no escritório de advocacia voltado a empregadores Littler Mendelson.

Mas, acrescentou ele, “‘não está ruim’ raramente é o padrão pelo qual você está trabalhando”.

Cabe a você verificar tudo o que incorporar da IA aos seus projetos. E ser transparente com seu chefe sempre que usá-la para esse fim.

2. Procure a política da sua empresa

É difícil dizer com certeza quantos empregadores já têm políticas completas sobre IA em vigor, embora os números provavelmente estejam aumentando.

Algumas pesquisas não científicas sugerem que essa parcela é menor do que as altas porcentagens de funcionários que dizem já estar usando IA.

“O uso autodirigido de IA cresceu para 65%, criando tanto inovação quanto risco, à medida que os funcionários exploram ferramentas antes de orientações formais”, segundo a American Management Association, que entrevistou 1.365 profissionais de diferentes setores em 29 países neste ano.

Enquanto isso, uma pesquisa recente da Littler com 349 profissionais de empresas dos EUA, de vários tamanhos e setores, constatou que 38% das empresas disseram ter criado uma política específica para o uso de IA pelos funcionários; outras 13% disseram ter desenvolvido diretrizes; e 19% indicaram que enquadraram o uso de IA em políticas de trabalho já existentes.

Portanto, antes de fazer qualquer outra coisa, verifique quais políticas e diretrizes de IA seu empregador implementou.

Se bem elaboradas, essas políticas devem oferecer uma noção clara dos princípios orientadores da empresa sobre o uso, um conjunto claro do que pode e do que não pode ser feito, bem como uma lista das ferramentas de IA que você tem permissão para usar e em quais condições. Elas também devem deixar claro quais ações disciplinares podem resultar do uso indevido. (Aqui está um exemplo da Fisher Phillips para dar uma ideia.)

Alguns tipos de empresas podem proibir o uso de IA (por exemplo, um contratado da área de defesa), enquanto outras (como instituições bancárias e financeiras) podem exigir extremo cuidado ou simplesmente não ter apetite para isso, disse Ray.

Outros empregadores podem licenciar uma ferramenta de IA personalizada para uso interno ou criar sua própria ferramenta interna de IA, disse Walton. Nesse caso, o uso de ferramentas públicas de terceiros pode ser desencorajado, restrito ou proibido.

3. Use o bom senso

Se o seu empregador não tiver uma política específica de IA, consulte as outras políticas da empresa que se aplicam a todo o seu trabalho, inclusive ao uso de IA, sugeriu Ray.

Isso pode incluir políticas destinadas a proteger as informações confidenciais do empregador, segredos comerciais ou propriedade intelectual — e, de forma relacionada, suas políticas de cibersegurança e privacidade.

Como regra geral, se você estiver usando uma ferramenta de terceiros como o ChatGPT, em uma versão utilizada por pessoas fora da sua empresa, nunca compartilhe dados confidenciais ou informações pessoalmente identificáveis, disse Walton.

Desative a função que permite que a ferramenta de IA treine com seus dados de entrada e configure-a para que não retenha suas consultas, ele sugeriu.

Ray compara a segurança do uso de uma ferramenta de IA pública a estacionar em um local público. Há mais chance de alguém acessar seu carro do que se você o estacionasse na sua própria garagem. “A possibilidade de interceptar dados é muito maior e você não sabe quem tem acesso”, afirmou.

De forma mais ampla, acrescentou ele, reconheça que, embora a IA possa oferecer novas ferramentas para você realizar seu trabalho, ela não muda suas obrigações como funcionário.

“No fim das contas, você deve fazer o que um funcionário consciente e ético faria em qualquer dia”, observou Ray.

FONTE

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *