A decisão do LinkedIn de usar informações de perfis, currículos e publicações para aprimorar a sua IA generativa insere-se numa prática crescente no setor tecnológico, já adotada por empresas como a Meta para o Facebook e Instagram. A principal implicação para os utilizadores é que a permissão para este uso de dados está ativada por defeito, o que significa que a informação é recolhida a menos que o utilizador intervenha ativamente para o impedir.

Esta abordagem de 'opt-out' coloca o ónus da proteção da privacidade sobre o indivíduo, que pode não estar ciente da alteração ou de como proceder.

Para mitigar esta situação, foram disponibilizados dois mecanismos de controlo.

O primeiro é um formulário específico (disponível em https://www.linkedin.com/help/linkedin/ask/TS-DPRO) que permite solicitar a exclusão de dados já processados dos conjuntos de treino. O segundo é uma opção nas definições de 'Privacidade dos Dados' da conta (acessível em https://www.linkedin.com/mypreferences/d/settings/data-for-ai-improvement), onde se pode desativar a utilização de futuros conteúdos para o treino de modelos de IA. A medida sublinha o debate contínuo sobre o equilíbrio entre a inovação tecnológica, que depende de vastos conjuntos de dados, e o direito fundamental dos cidadãos à privacidade e ao controlo sobre as suas informações pessoais, num ecossistema digital onde os dados são um ativo cada vez mais valioso.