ChatGPT: A ferramenta de IA que tem levantado questões sobre privacidade de dados

A Inteligência Artificial (IA) é uma tecnologia cada vez mais utilizada em diversas áreas, da medicina à economia. Em novembro de 2022, a OpenAI lançou o ChatGPT, uma ferramenta de IA que interage com os usuários de maneira conversacional, respondendo perguntas e admitindo erros. No entanto, com o surgimento de ferramentas de IA como o ChatGPT, acabam sendo levantadas várias questões sobre a privacidade dos dados dos usuários.

O ChatGPT é um modelo treinado com cerca de 300 bilhões de palavras adquiridas da internet, desde artigos de blog, livros, sites, poemas dentre outros dados, podendo incluir informações pessoais obtidas sem o consentimento prévio dos usuários. A popularidade desta nova ferramenta de IA atingiu números absolutamente estrondosos, sendo assim o aplicativo para o consumidor com o maior crescimento alguma vez registrado na história da internet. O ChatGPT atingiu cerca de 100 milhões de usuários ativos por mês em janeiro de 2023, apenas 2 meses após o seu lançamento. Comparando com outros aplicativos, o TikTok demorou 9 meses para atingir os 100 milhões de usuários após o seu lançamento e a rede social Instagram demorou cerca de 2 anos e meio para atingir os mesmos números, de acordo com dados de Sensor Tower. Com o tremendo sucesso do ChatGPT, a Microsoft investiu cerca de 100 milhões de dólares nesta ferramenta e com planos de implementá-la em algumas plataformas da Google.

Nos últimos meses, ocorre uma intensa disputa pelo domínio da inteligência artificial, com diversas empresas buscando investir pesadamente nesse mercado. A Google e a Bing, por exemplo, já lançaram suas próprias versões de inteligência artificial. Mesmo após um retorno negativo em seus investimentos no ano passado, a Meta, proprietária das redes sociais Facebook e Instagram, optou por desistir do metaverso e concentrar seus esforços na inteligência artificial.

Mas, com o surgimento de inteligência artificiais como o ChatGPT acabam por ser levantadas várias questões no que toca à privacidade de dados dos utilizadores do ChatGPT. Os desenvolvedores do ChatGPT argumentaram que parte do seu comprometimento é assegurar um IA seguro e responsável e que constantemente revisam as conversas para melhorar os seus sistemas e assegurar que o conteúdo cumpre com os regulamentos e os requerimentos de segurança. A política de privacidade diz que as informações pessoais coletadas são usadas para pesquisa que pode ser interna, compartilhada com terceiros, publicada, ou disponibilizada de maneira geral e para desenvolver novos programas, serviços, entre outros. É importante salientar que, de igual modo, algumas das respostas do histórico de conversas com o assistente de inteligência artificial não podem ser apagadas.

Segundo a CNN, a empresa financeira JP Morgan pediu aos seus trabalhadores para não inserirem informação sensível no bot. Também empresas como Verizon e Amazon limitam ou proíbem os seus trabalhadores de usar a ferramenta de inteligência artificial. 

A chefe de segurança de informação da Verizon, Nasrin Rezai, num programa público “Up to Speed” argumentou que IA é integral para a estratégia da empresa, mas que ChatGPT não é sinônimo de Inteligência Artificial, porque IA é uma ciência muito mais ampla e disciplina que envolve computadores e coisas que tradicionalmente requerem inteligência humana. Acrescentando também que pode fazer com que percamos o risco da informação do cliente, código-fonte e muito mais. 

A Apple foi um passo à frente e bloqueou o update do aplicativo de email BlueMail, que utiliza uma versão customizada do ChatGPT. A empresa estava preocupada de que o novo recurso da IA fosse mostrar conteúdo inapropriado para crianças.

No dia 21 de abril de 2021, a Comissão Europeia apresentou uma proposta de regulamentação chamada de “AI Act” cujo objetivo é estabelecer um quadro legal para a inteligência artificial. A regulamentação abrange todos os setores, exceto o militar, e se aplica a todos os tipos de inteligência artificial. A proposta apenas visa regularizar os provedores de sistemas de inteligência artificial e entidades que procuram utilizá-las profissionalmente. Classifica as IAs por risco, e regulariza-as. Aplicações de baixo risco não são regularizadas.

Os sistemas de inteligência artificial classificados como de médio e alto risco deverão passar por uma avaliação obrigatória, que incluirá um teste interno fornecido pelo provedor, antes de serem disponibilizados no mercado. Em setores específicos, como o campo médico, os sistemas de IA serão submetidos a análises mais rigorosas, considerando as particularidades dessa área.

A proposta iria ainda proibir certos tipos de aplicações e, nomeadamente, reconhecimento biométrico, aplicações que de maneira subliminar manipulam pessoas, aplicações que exploram vulnerabilidades de grupos de maneira perigosa e, sistemas de crédito social. Para as primeiras três, um regime de autorização contexto de aplicação da lei está proposto, mas sistemas de crédito social estão banidos. O ato ainda propõem a introdução de Painel Europeu de Inteligência Artificial que ia encorajar a cooperação nacional e assegurar que a regulamentação é respeitada. 

A chegada de IAs como o ChatGPT causou uma confusão no contexto do AI Act, deixando dúvidas se sistemas de IA que geram textos complexos sem supervisão humana seriam considerados de risco elevado, podendo classificar o ChatGPT como tal e evitar a disseminação de desinformação em larga escala. Essa proposta gerou ceticismo em alguns partidos políticos de direita e liberais, como destacado por Axel Voss, um legislador do parlamento, que argumentou que essa mudança poderia rotular atividades de risco alto que, na verdade, não representam nenhum risco.

O grupo ativista Corporate Europe Observatory conduziu recentemente uma investigação que revelou a pressão exercida por empresas como Microsoft e Google sobre os policymaker da União Europeia para que IAs de propósito geral, como o ChatGPT, fossem excluídas das obrigações impostas aos sistemas de risco alto.

O Ato de Inteligência Artificial também tem influenciado outros países a redigirem suas próprias leis sobre o assunto. No Brasil, em setembro de 2021, a Câmara dos Deputados aprovou um marco regulatório para o setor, mas o projeto ainda aguarda votação no Senado Federal. O júri formado para tratar do tema da Inteligência Artificial fez algumas adições ao projeto.

O foco deste projeto acaba por se focar no direito dos consumidores a ter os seus dados protegidos e como isso deve acontecer com a inteligência artificial. Apesar de que o maior desafio de Atos sobre Inteligência Artificial acaba por ser a própria definição do mesmo, se for muito restrita pode não abranger empresas que utilizam IAs se for muito ampla pode restringir empresas que nem acabam por utilizar IAs que possam criar uma potencial fuga de dados. 

Recentemente, imagens de históricos de chat começaram a surgir no Reddit e no Twitter, aparentemente postadas por usuários que não as haviam feito. Segundo o CEO da Open AI, responsável pela criação do ChatGPT, Sam Altman, houve uma falha no sistema que permitiu que alguns usuários visualizassem os títulos de conversas de outros usuários. Altman lamentou o ocorrido e afirmou que o erro foi corrigido de forma significativa.

É importante que os usuários tenham maior controle sobre seus dados pessoais e como eles são utilizados pelas ferramentas de IA. As políticas de privacidade devem ser fáceis de entender, com opções claras para os usuários optarem por não compartilhar informações sensíveis ou limitar o uso de seus dados pessoais.

A transparência também é fundamental para construir confiança entre os usuários e as empresas que utilizam IA. Os desenvolvedores de ferramentas de IA devem ser coerentes sobre como os dados são coletados, armazenados, utilizados e compartilhados, e garantir que os usuários tenham acesso a essas informações. Isso inclui a divulgação de quais informações são compartilhadas com terceiros e com que finalidade.

Outro aspecto importante é a responsabilidade na utilização de IA. As empresas devem ser responsáveis pelo uso da tecnologia, garantindo que não haja discriminação ou preconceito nos algoritmos, e que a tecnologia seja usada para promover a igualdade e justiça. É importante que as empresas reconheçam o impacto social da IA e trabalhem para minimizar os efeitos negativos que a tecnologia possa ter na sociedade.

Por fim, é necessário que haja regulamentação e fiscalização adequadas no uso de IA. As autoridades regulatórias devem trabalhar em conjunto com as empresas de tecnologia para estabelecer diretrizes claras e garantir que as empresas estejam em conformidade com as regulamentações de privacidade e segurança de dados. A fiscalização é importante para garantir que as empresas cumpram com as políticas estabelecidas e que as sanções sejam aplicadas em caso de violações.

A IA tem um grande potencial para trazer benefícios significativos para a sociedade, mas a privacidade e proteção de dados são preocupações legítimas que precisam ser consideradas. O ChatGPT é um exemplo recente de como a IA pode ser utilizada para melhorar a interação entre humanos e tecnologia, mas a privacidade dos dados dos usuários precisa ser considerada e garantida. As empresas que investem em IA precisam se comprometer com a segurança e privacidade dos dados dos usuários, estabelecer políticas claras de privacidade e segurança, investir em tecnologias e práticas de segurança, e trabalhar em conjunto com as autoridades regulatórias para garantir que a tecnologia seja usada de forma ética e responsável.

 

Partilhe este post

Entre em contacto

Nóticias sobre Cibersegurança e Proteção de Dados

A LGPD e o impacto nas pequenas empresas

As pequenas e médias empresas não estão isentas da conformidade com a LGPD. A Lei se aplica sempre que uma empresa coleta dados pessoais de um cidadão brasileir
Cibersegurança

A Importância da Auditoria de Segurança Cibernética

Num contexto global onde a digitalização prevalece, a cibersegurança se tornou uma preocupação inegável. Nesse cenário, a Auditoria de Segurança Cibernética emerge como um pilar

Cibersegurança

Gestão de Incidentes de Segurança Cibernética

A segurança cibernética tornou-se uma prioridade incontestável nas empresas modernas, à medida que a complexidade das ameaças digitais continua a evoluir. Nesse contexto, a habilidade

pt_PT