Mundo

OpenAI encontra mais grupos chineses usando ChatGPT para fins ilícitos

Desde que o ChatGPT entrou em cena no final de 2022, existem preocupações sobre as possíveis consequências da tecnologia de IA generativa, que pode produzir texto, imagens e áudio semelhantes aos produzidos por humanos, de forma rápida e fácil.

A OpenAI divulga regularmente relatórios sobre atividades maliciosas que detecta em sua plataforma, como a criação e a depuração de malware (software malicioso) ou a geração de conteúdo falso para sites e plataformas de mídia social.

Em um exemplo, a OpenAI baniu contas do ChatGPT que geravam publicações em mídias sociais sobre tópicos políticos e geopolíticos relevantes para a China, incluindo críticas a um videogame centrado em Taiwan, acusações falsas contra um ativista paquistanês e conteúdo relacionado ao fechamento da Agência dos Estados Unidos para o Desenvolvimento Internacional, a USAID.

O Ministério das Relações Exteriores da China não respondeu imediatamente a um pedido de comentário da Reuters sobre as declarações da OpenAI.

A OpenAI consolidou sua posição como uma das empresas privadas mais valiosas do mundo depois de anunciar uma rodada de financiamento de US$40 bilhões, com a companhia sendo avaliada em US$300 bilhões.

(Reportagem de Anna Tong em San Francisco)



Fonte

Deixe um comentário

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Artigos relacionados

Mundo

ciência desmonta o culto ao talento precoce

O sucesso na juventude costuma vir de muita prática em uma única...

Mundo

“Assustador”: Irmãos ajudam motorista escolar durante emergência nos EUA

Dois irmãos ajudaram a motorista do ônibus escolar em que viajavam durante...

Mundo

Nova York declara estado de emergência em meio a nevasca

SÃO PAULO, SP (FOLHAPRESS) – A governadora do estado de Nova York,...

Mundo

Empresário vende negócio e dá bônus de 1,5 bilhões aos funcionários

Graham Walker, ex-diretor executivo de uma empresa familiar do setor de tecnologia...