Em meio à euforia provocada pelos modelos de Inteligência Artificial em forma de “chat” como o ChatGPT, que permitem a realização de uma gama imensa de tarefas e podem ser usados para um sem número de atividades, um fato está passando despercebido: Os colaboradores das empresas estão compartilhando informações sigilosas das organizações nos “prompts” conversacionais, sem se dar conta que podem estar alimentando os modelos de linguagem com tais informações, que, por sua vez poderão ser disponibilizadas a qualquer usuário futuramente em novas consultas. Tal fato pode trazer inúmeras implicações para as empresas e colaboradores, e, sem dúvida causar prejuízos para ambos. Acompanhe essa discussão!
O uso de modelos de linguagem, como o ChatGPT, por colaboradores para enviar dados comerciais confidenciais e informações privadas levanta preocupações sobre a segurança dos dados.
Segundo matéria publicada pelo grupo britânico Informa, a preocupação com a segurança dos dados comerciais confidenciais foi elevada, uma vez que foi constatado que mais de 4% dos funcionários das empresas clientes do grupo, forneceram essas informações para o ChatGPT.
Existe o receio por parte das organizações no sentido de que a popularidade do modelo de linguagem possa facilitar vazamentos em larga escala de informações de propriedade de empresas privadas e que são sigilosas, e, muitas vezes revelam dados estratégicos.
Há o risco de que essas informações sejam incorporadas aos modelos de inteligência artificial (IA) e posteriormente acessadas por outros usuários sem a devida preocupação com a segurança desses dados.
Conforme relata a matéria, a empresa de segurança de dados Cyberhaven bloqueou solicitações de entrada de dados no ChatGPT de 4,2% dos 1,6 milhão de funcionários de suas empresas clientes devido a esse risco.
Em um desses casos, um executivo enviou um documento estratégico da empresa ao ChatGPT com a finalidade de criar uma apresentação em PowerPoint.
Em outro caso, um médico compartilhou o nome e a condição médica de um paciente para que o ChatGPT redigisse uma carta à companhia de seguros.
Isso leva a crer que à medida em que mais funcionários utilizam esses serviços de IA como ferramentas de produtividade, maior será o risco de vazamento de informações confidenciais.
Diante deste cenário, é recomendado que os empregadores adotem medidas preventivas, como incluir em acordos e políticas de confidencialidade dos funcionários a proibição de inserir informações confidenciais, segredos comerciais etc., em chatbots de IA ou modelos de linguagem, como o ChatGPT.
Isso evitará que funcionários utilizem informações protegidas sem permissão, criando riscos legais para os empregadores.
Segundo especialistas, tendo em vista que o ChatGPT foi treinado em amplas faixas de informações on-line, os funcionários podem receber e utilizar informações que pertencem a outra pessoa ou entidade, como marcas registradas, protegidas por direitos autorais ou propriedade intelectual, o que representa um risco legal para os empregadores.
Por esse motivo, é de extrema importância que as empresas, por meio dos seus programas de Compliance, passem a considerar essas questões ao permitir o uso de ferramentas de IA por seus funcionários e analisem de maneira ampla quais os impactos que a utilização indevida pode causar.
Gostou de saber mais sobre os riscos de compartilhar informações empresariais e sigilosas com o ChatGPT? Deixe seu comentário!
Fonte: Grupo Informa
Adicionar Comentário