Um novo estudo feito por cientistas da Microsoft, da Universidade de Pequim e da Academia Chinesa de Ciências, descobriu que um chatbot pode responder melhor quando é tratado com educação.
- Novo PlayStation®5 Slim + acessórios e games com o melhor preço do Brasil, frete grátis e entrega super rápida? Só pode ser clicando aqui!
Segundo a pesquisa, os modelos generativos de inteligência artificial têm melhor desempenho quando solicitados de forma que transmita urgência ou importância.
Os pesquisadores indicam que as melhores respostas do ChatGPT surgiram quando escreveram algo como “é crucial que eu seja entendido” ou “isso é muito importante para minha carreira”.
Uma equipe da startup Anthropic conseguiu evitar respostas preconceituosas ao pedir que o robô “realmente, realmente, realmente” não fizesse isso.
Os cientistas do Google também descobriram que a tecnologia resolve melhor problemas matemáticos ao pedir para “respirar fundo“.
Houve uma situação inusitada compartilhada por um usuário do Reddit que, após prometer uma recompensa de 100 mil dólares, obteve um desempenho do chatbot melhorado significativamente.
Pesquisadores estão se referindo a essas interações peculiares com dispositivos como “instruções emotivas”. A complexidade surge do fato de que, devido ao comportamento e diálogo quase humanos desses chatbots, é fácil para os usuários misturar realidade com ficção.
Contudo, os cientistas esclarecem que estas máquinas, de fato, não possuem emoções. Além disso, destacam que os modelos de inteligência artificial generativos não possuem uma inteligência autêntica.
Tratam-se meramente de sistemas baseados em estatísticas, projetados para prever palavras, imagens, fala, música ou qualquer outro tipo de dado seguindo padrões específicos.
Então, por que o chatbot responde melhor?
“Os modelos são treinados com o objetivo de maximizar a probabilidade de sequências de texto. Quanto mais dados de texto eles veem durante o treinamento, mais eficientes eles se tornam na atribuição de probabilidades mais altas a sequências frequentes”.
“Portanto, ‘ser mais gentil’ implica articular suas solicitações de uma forma que se alinhe com o padrão de conformidade no qual os modelos foram treinados, o que pode aumentar a probabilidade de entregar o resultado desejado”, explicou Nouha Dziri, pesquisadora do Instituto Allen, ao site TechCrunch.
“Descobrir o prompt perfeito que alcançará o resultado pretendido não é uma tarefa fácil e é atualmente uma questão de pesquisa ativa. Minha esperança é que desenvolvamos novas arquiteturas e métodos de treinamento que permitam aos modelos compreender melhor a tarefa subjacente sem precisar de tais prompts específicos”.
“Queremos que os modelos tenham um melhor senso de contexto e entendam as solicitações de uma forma mais fluida, semelhante aos seres humanos, sem a necessidade de uma ‘motivação’”, concluiu a doutora.
- Novo PlayStation®5 Slim + acessórios e games com o melhor preço do Brasil, frete grátis e entrega super rápida? Só pode ser clicando aqui!
Seja o primeiro a comentar