Por Reuters
A Comissão Federal de Comércio dos Estados Unidos abriu uma investigação sobre a OpenAI, fabricante do ChatGPT, sob alegações de que ela infringiu as leis de proteção ao consumidor ao colocar em risco a reputação e os dados pessoais, de acordo com uma demanda da FTC por informações enviadas para a empresa.
O movimento marca a mais forte ameaça regulatória para a startup apoiada pela Microsoft que deu início ao frenesi da inteligência artificial generativa, cativando consumidores e empresas enquanto levantava preocupações sobre seus riscos potenciais.
A FTC enviou esta semana uma demanda de 20 páginas por registros sobre como a OpenAI aborda os riscos relacionados a seus modelos de IA. A agência está investigando se a empresa se envolveu em práticas injustas ou enganosas que resultaram em “danos à reputação” dos consumidores.
Uma das questões tem a ver com as medidas que a OpenAI tomou para abordar o potencial de seus produtos de “gerar declarações sobre indivíduos reais que são falsas, enganosas ou depreciativas”.
O Washington Post foi o primeiro a relatar a investigação. A FTC não quis comentar. A OpenAI não respondeu imediatamente a um pedido de comentário.
À medida que a corrida para desenvolver serviços de IA mais poderosos se acelera, cresce o escrutínio regulatório da tecnologia que pode mudar a maneira como as sociedades e as empresas operam.
Os reguladores globais pretendem aplicar as regras existentes que cobrem tudo, desde direitos autorais e privacidade de dados até duas questões principais: os dados inseridos nos modelos e o conteúdo que eles produzem, informou a Reuters em maio.
Nos Estados Unidos, o líder da maioria no Senado, Chuck Schumer, pediu “legislação abrangente” para avançar e garantir salvaguardas para a IA e realizará uma série de fóruns ainda este ano.
A OpenAI em março também teve problemas na Itália, onde o regulador tirou o ChatGPT do ar devido a acusações de que a OpenAI violou o GDPR da União Europeia – um amplo regime de privacidade promulgado em 2018.
O ChatGPT foi restabelecido mais tarde, depois que a empresa dos EUA concordou em instalar recursos de verificação de idade e permitir que os usuários europeus impedissem que suas informações fossem usadas para treinar o modelo de IA.
Com Reuters