O Google emitiu um esclarecimento sobre as imagens “estranhas e erradas” geradas por sua ferramenta Gemini AI. em Postagem de sexta-feiraO Google afirma que seu modelo produziu imagens “históricas imprecisas” devido a problemas de ajuste. A beira Outros flagraram Gemini gerando imagens de nazistas racialmente diversos e dos fundadores dos EUA no início desta semana.
“Queremos garantir que Gêmeos mostre o fracasso de um grupo de pessoas em interpretar situações que deveriam ser óbvias não “Mostre a escala”, escreveu Prabhakar Raghavan, vice-presidente sênior do Google, no post. “Em segundo lugar, com o tempo, o modelo tornou-se mais cauteloso do que pretendíamos, recusando-se a responder completamente a algumas solicitações, levando à interpretação errada de alguns estímulos calmantes como sensíveis.”
Isso levou a Gemini AI a “compensar excessivamente em alguns casos”, como o que vimos em imagens de nazistas racialmente diversos. Também faz com que Gêmeos se torne “excessivamente conservador”. Isso a levou a se recusar a criar imagens específicas de uma “pessoa negra” ou de uma “pessoa branca” quando solicitada.
Na postagem do blog, Raghavan disse que o Google “lamenta que o recurso não tenha funcionado bem”. Ele também ressalta que o Google deseja que o Gemini “funcione bem para todos” e isso significa obter fotos de diferentes tipos de pessoas (incluindo diferentes raças) quando pede fotos de “jogadores de futebol” ou “pessoa passeando com um cachorro”. Mas ele diz:
No entanto, se você pedir a Gêmeos fotos de um certo tipo de pessoa – como “um professor negro na sala de aula” ou “um veterinário branco com um cachorro” – ou de pessoas em determinados contextos culturais ou históricos, você certamente receberá uma resposta. que reflita com precisão o que Você pede.
Raghavan diz que o Google continuará testando os recursos de geração de imagens do Gemini AI e “trabalhando para melhorá-los significativamente” antes de reativá-lo. “Como dissemos desde o início, as alucinações são um desafio conhecido por todos os titulares de LLM [large language models] “Há casos em que a IA erra”, aponta Raghavan.”Isso é algo que estamos constantemente trabalhando para melhorar.”
“Viciado em TV certificado. Ninja zumbi irritantemente humilde. Defensor do café. Especialista em web. Solucionador de problemas.”
More Stories
Como os especialistas em IA do novo programa Gemini Gems do Google podem impulsionar seu SEO
Vazamentos revelam o nome e design do suposto dispositivo PS5 Pro
Os jogadores reclamam do longo tempo de matchmaking no PS5 conforme os números do Concord caem