Esta alteração de política, que inclui informações de perfis públicos, currículos e publicações, gerou debate sobre a privacidade e o controlo dos dados pessoais na plataforma profissional.
A intenção de usar os conteúdos para aprimorar os modelos de IA da Microsoft já tinha sido anunciada, mas a sua implementação efetiva coloca os utilizadores perante uma nova realidade. A funcionalidade está ativada por defeito, o que significa que os dados de milhões de perfis estão a ser processados, a menos que os utilizadores ajam proativamente para o impedir.
Existem duas formas de o fazer.
A primeira consiste no preenchimento de um formulário específico, através do qual o utilizador pode solicitar que os dados já processados sejam excluídos do conjunto de treino. A segunda forma, que impede a utilização de novos conteúdos, passa por desativar a opção nas definições de “Privacidade dos dados”, na secção “Dados para aprimoramento da IA generativa”. Esta medida do LinkedIn segue uma tendência crescente entre as grandes plataformas tecnológicas, como a Meta (dona do Facebook e Instagram), que também começou a usar dados de utilizadores europeus para treinar os seus modelos de IA, disponibilizando igualmente mecanismos de recusa.
A decisão sublinha a importância crescente dos dados dos utilizadores como um recurso fundamental para o desenvolvimento da inteligência artificial.











