O ChatGPT e demais chatbots são expressão máxima da Inteligência Artificial. Para gerar respostas tão complexas e semelhantes ao intelecto de um ser humano, utiliza algoritmos e armazena grandes volumes de dados, essencialmente derivados de utilizadores da Internet.
No mês passado, polémica decisão surgiu quando as autoridades italianas anunciaram o bloqueio do ChatGPT com base na violação do Regulamento Europeu de Proteção de Dados – RGPD. O alarme “soou” após uma quebra da segurança cibernética com intenção fraudulenta e criminal, em que foram revelados excertos de conversas entre utilizadores e o ChatGPT como também a revelação de dados sensíveis, nomeadamente informações financeiras.
O que pode estar em causa? Para começar o algoritmo de funcionamento destas ferramentas. As informações obtidas através da utilização com os utilizadores permitem melhorar o próprio sistema, significando que posteriormente, os mesmos dados possam ser incluídos em respostas com outros utilizadores. Não havendo garantia de segurança e confidencialidade das comunicações, nem tanto uma prévia informação ao utilizador ou pedido de consentimento para tratamento dos dados, ou possibilidade de eliminação dos mesmos.
Para mais, o OpenAI (empresa por detrás do ChatGPT) reúne outras informações mais técnicas do utilizador. Conforme a sua política de privacidade recolhe o endereço IP do utilizador, tipo de browser, a atividade de navegação e as interações com o site.
De outro ponto de vista, as preocupações extravasam o individual. Nas relações laborais, a falta de proteção preocupa os empregadores. O ChatGPT tem as suas qualidades e o seu uso até é incentivado por alguns, mas no concerne de os trabalhadores o utilizarem como auxílio ao trabalho, podem estar inadvertidamente a partilhar propriedade intelectual, informações confidenciais, ou segredos comerciais, que representam um verdadeiro risco legal ao colocar dados sensíveis no domínio público.
Caberá saber se há fundamento lícito e legal para o tratamento dos dados pessoais para prosseguir o objetivo comercial.
O legislador, quando cria uma lei, não consegue prever todas as realidades que podem ter de ser reguladas, mas é expectável que sejam mutáveis no tempo e tenham um certo grau de adaptabilidade de modo a prever a evolução de temas emergentes com necessidade de regulamentação. Ora, o RGPD não foi intimamente criado para prever situações de IA. Há quem acredite que o RGPD é flexível o suficiente para ser aplicado nestes casos, como também há quem acredite que sem legislação própria os problemas derivados da Inteligência Artificial nunca ficarão devidamente acautelados.
Independentemente da divergência doutrinal, a União Europeia prevê apresentar um projeto de lei para regulamentar a Inteligência Artificial (IA).
Até lá, o RGPD é a base que dita os requisitos mínimos para que os dados dos utilizadores sejam protegidos, havendo o risco de poder se revelar como insuficiente para a complexidade do tema. Consequentemente, não será de surpreender o debate que as autoridades de outros países europeus têm tido após a chamada de atenção de Itália.
Não é possível impedir o desenvolvimento da IA, assim sendo é crucial que o direito acompanhe esse desenvolvimento.
Joana Vaz Silva @ DCM | Littler