A versão mais recente do modelo de linguagem GPT-4 da OpenAI está rapidamente se tornando um dos avanços mais empolgantes em inteligência artificial. Com sua capacidade de gerar texto com base em modelos estatísticos do mundo real, o GPT-4 tem o potencial de revolucionar a maneira como interagimos com as máquinas.
No entanto, GPT-4 também tem sido alvo de críticas dos usuários. Alguns têm apontado para o seu chamado problema de “alucinação” como uma fonte potencial de preocupação – isto é, GPT-4 poderia gerar conteúdo impreciso ou mesmo inadequado se dadas as instruções erradas. Embora esse risco tenha sido reconhecido pela OpenAI, a organização já tomou medidas para resolver o problema.
A OpenAI anunciou recentemente que o GPT-4 foi melhorado para responder com mais sensibilidade a solicitações de conteúdo, como conselhos médicos ou de automutilação. De acordo com conversas realizadas com o ChatGPT, a OpenAI diz que isso levou a uma taxa de “29% mais frequentemente” de responder adequadamente a tais solicitações. Além disso, a OpenAI afirma que o GPT-4 conseguiu reduzir sua taxa de resposta errônea a solicitações de conteúdo não autorizado em 82%.
Essas melhorias são um passo positivo na direção certa para a OpenAI e demonstram o compromisso da organização em melhorar o GPT-4 e garantir que ele seja usado com responsabilidade. No entanto, é importante lembrar que o GPT-4 ainda é um modelo gerado por máquina e nunca será perfeito. Embora a OpenAI tenha tomado medidas para reduzir o risco de GPT-4 gerar conteúdo impreciso ou inadequado, é importante que os usuários permaneçam vigilantes no uso do sistema.