especialistas alertam para risco de dependência


A OpenAI, líder mundial em Inteligência Artificial, prepara-se para cruzar uma linha polémica: a introdução de um “modo adulto” no ChatGPT. A decisão, que permitirá ao chatbot envolver-se em conversas de teor erótico (descritas internamente como “smut”), está a gerar uma onda de choque até dentro da empresa, colocando em rota de colisão a visão comercial da personalização do modelo de IA e as recomendações de segurança do seu grupo de especialistas.

A premissa da OpenAI, como noticia o site especializado CNET, baseia-se numa mudança de paradigma na moderação de conteúdo. Até agora, o ChatGPT operava sob filtros rigorosos que bloqueavam qualquer tentativa de interação sexual. No entanto, a empresa argumenta agora que os utilizadores adultos devem ter a liberdade de moldar as suas experiências, desde que estas não infrinjam leis ou envolvam abusos.

Esta abertura visa reduzir a “recusa sistemática” do bot em responder a temas “maduros”, procurando uma interação mais humana e menos higienizada.

Um “treinador de suicídio sexy”?

Só que o otimismo da administração não é partilhado pelos seus próprios especialistas de segurança. Segundo a publicação Ars Technica, os avisos internos têm mesmo sido descritos como “apocalípticos”. Um dos principais conselheiros de segurança da OpenAI alertou que, sem as salvaguardas adequadas, o modelo corre o risco de se tornar um “treinador de suicídio sexy”.

O perigo reside na capacidade da IA de criar laços de dependência emocional profunda – algo que já hoje acontece, mesmo com as salvaguardas instaladas. Ao combinar erotismo com a habitual natureza prestativa e empática do ChatGPT, a tecnologia pode incentivar comportamentos de isolamento social ou até validar ideações suicidas em utilizadores vulneráveis que procurem no bot um substituto para o contacto humano.

Soma-se a isto uma falha crítica na infraestrutura: os sistemas de verificação de idade atuais apresentam uma margem de erro estimada em 12%, o que significa que milhões de menores poderiam, teoricamente, aceder a este conteúdo explícito.

Decisão já foi adiada pelo menos uma vez

Embora o lançamento pudesse já ter acontecido, a OpenAI decidiu, no último momento, adiar a implementação em larga escala. Oficialmente, a empresa justifica a pausa com a necessidade de priorizar melhorias na inteligência geral e na personalização dos modelos. No entanto, fontes próximas do processo citadas pela Futurism sugerem que o verdadeiro motivo é a intensa fricção interna e o receio de um desastre de relações públicas, caso os cenários previstos pelos conselheiros se concretizem.

A OpenAI encontra-se, assim, num impasse: sente a pressão de oferecer uma IA sem “amarras” pudicas, que satisfaça a procura do mercado, e com potenciais lucros no horizonte, mas tem sobre si a responsabilidade ética de evitar que a sua ‘ferramenta de produtividade’ se transforme numa fonte de crises de saúde mental.



Source link

Mais Lidas

Veja também