A revolução da inteligência artificial tem sido preparada há mais de uma década, mas só recentemente ferramentas avançadas estão disponíveis para utilizadores não técnicos.
As ferramentas de IA generativa, capazes de utilizar instruções simples para gerar conteúdos impressionantes de texto ou imagem, fizeram realmente um grande avanço. Já fazem parte do conjunto de ferramentas do profissional moderno para debater ideias, criar visualizações rápidas e obter feedback instantâneo de um colega de trabalho, sempre com uma abordagem de IA responsável.
A IA não generativa aumentou o poder das ferramentas digitais, ajudando os profissionais a detetar padrões e analisar dados não formatados para melhorar os fluxos de trabalho.
A IA é uma ferramenta poderosa - mas um grande poder vem acompanhado de uma grande responsabilidade. Os limites e riscos da IA são bem documentados, desde preocupações com propriedade intelectual nas ferramentas generativas até aos preconceitos e falhas de raciocínio que reforçam tendências humanas.

Por esse motivo, as empresas que utilizam e desenvolvem ferramentas de IA estão a esforçar-se por obter uma IA responsável e ética. Trata-se de uma mentalidade que visa promover o uso positivo da IA, tornando-a acessível a mais pessoas e mitigando os riscos graves que ela pode gerar.
As ferramentas de IA não vão desaparecer e, no futuro, serão ainda mais avançadas e amplamente utilizadas do que atualmente. Por isso, é altura de todas as empresas começarem a pensar na forma como a IA responsável e ética pode ser assegurada nas organizações. Este artigo não é um conselho jurídico ou de compliance, mas ajudará a compreender a IA responsável e como incentivá-la na sua empresa.
O que é a IA responsável?
Embora os princípios básicos sejam os mesmos, a definição de IA responsável varia. De acordo com a Google, que está a investir fortemente nas suas próprias ferramentas de IA:
"A IA responsável considera o impacto social do desenvolvimento e da escala das tecnologias [de IA], incluindo os potenciais danos e benefícios."
Nós utilizamos a IA de acordo com os nossos princípios de IA. A Randstad usa a IA quando beneficia todos, com supervisão humana, transparência, justiça, segurança e responsabilidade na sua utilização.
Em todo o trabalho relacionado com IA, pretendemos manter-nos responsáveis, centrando-nos sempre na equidade, responsabilidade, segurança e privacidade. A Microsoft define sistemas de IA responsáveis como justos, fiáveis, seguros, privados, inclusivos, transparentes e responsáveis
A definição exacta da sua empresa de utilização responsável da IA pode ser ligeiramente diferente. Mas o significado básico será o mesmo - IA que é utilizada de uma forma ética, legal, positiva e inclusiva. Significa usar a IA para complementar as capacidades humanas, reduzindo preconceitos, em vez de substituir completamente os seres humanos.
Nos RH, um exemplo de uso responsável seria um chatbot de IA para ajustar descrições de funções, evitando linguagem não inclusiva. No entanto, a ferramenta de recrutamento com IA da Amazon, que a empresa deixou de utilizar depois de descobrir que era tendenciosa contra as candidatas do sexo feminino, não é um bom exemplo.

Como garantir uma utilização responsável da IA na sua empresa
Dependendo do seu negócio e da experiência com IA, há várias formas de criar um entendimento comum sobre o uso responsável e aplicá-lo em toda a empresa. No entanto, a maioria das empresas que já estão a ter sucesso fazem-no de uma ou mais das seguintes formas:
Formação em utilização responsável da IA
É improvável que introduza uma nova ferramenta importante, como um sistema CRM ou ATS, sem dar formação adequada aos profissionais. Quando a IA começa a infiltrar-se na empresa, é crucial garantir que a equipa saiba utilizá-la de forma adequada e responsável.
Desde que as ferramentas de IA generativa de fácil utilização se tornaram populares, o entusiasmo só tem aumentado. Utilizadores inexperientes podem ver a IA como totalmente positiva, ignorando riscos como problemas de segurança, violações de propriedade intelectual e preconceitos causados por dados de má qualidade.
A formação é uma oportunidade para dissipar os mitos em torno da IA e informar os colegas sobre as desvantagens e limitações da tecnologia. Quando conhecerem todos os factos, poderão tirar partido das vantagens da IA, evitando os seus perigos mais graves.
A formação também é procurada pelos trabalhadores atuais. No inquérito Workmonitor da Randstad a mais de 27.000 trabalhadores em todo o mundo, a IA estava no topo da lista de competências que os inquiridos queriam desenvolver.
Um inquérito da PwC a mais de 54.000 trabalhadores teve resultados semelhantes, encontrando uma atitude amplamente positiva em relação à IA no local de trabalho entre os inquiridos.Educar os profissionais sobre as competências-chave de IA e como usá-la eficazmente pode torná-los utilizadores confiantes e satisfazer a sua procura de conhecimento.
Monitorizar a utilização da IA e envolver os trabalhadores
Mais uma vez, não introduziria uma nova ferramenta importante como um sistema CRM na organização e depois nunca verificaria a forma como está a ser utilizada.Para garantir o sucesso, as equipas ajustariam os processos continuamente, explorando novas funcionalidades e evitando o uso incorreto da ferramenta. A sua organização deve fazer o mesmo com as suas ferramentas de IA para garantir uma utilização responsável.
A nível operacional, designar profissionais específicos como "owners" (responsáveis) das ferramentas de IA ajuda a desenvolver conhecimentos especializados e a criar responsabilidade. Garantir que os proprietários conheçam os princípios da IA responsável ajuda a avaliar novos casos de uso e evita a utilização não supervisionada de ferramentas poderosas.
Inquéritos regulares ajudam a liderança a entender como a IA é utilizada e evolui na organização, evitando surpresas diante de problemas potenciais.
Em suma, as novas ferramentas de IA não devem ser implementadas de uma forma "fixa e esquecida". Os funcionários devem entender a importância de pensar criticamente sobre a IA e trabalhar para aprimorar seu uso ao longo do tempo.
Políticas e gestão clara e responsável da IA
Ter documentos claros de gestão de IA e uma definição comum de IA responsável é uma das medidas mais importantes. A definição de 'responsável' pode variar, mas uma política de IA aprovada pela liderança e compartilhada com todos alinha toda a equipa. Dá aos membros da equipa algo a que recorrer se não estiverem 100% seguros de que a tarefa de IA planeada é permitida e responsável.
Os nossos modelos para criar princípios e políticas de IA são ótimos recursos para definir a posição oficial da sua empresa sobre o tema. Se está a começar e quer fazer as perguntas certas sobre IA, faça o download do nosso fluxograma para identificar a utilização responsável na sua organização.
Este fluxograma ajuda a avaliar casos específicos de uso de IA, indicando se são responsáveis ou se precisam de ajustes antes de implementar princípios na empresa.
