Biegowelove.pl

informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Google wyjaśnia „żenujące” zdjęcia AI, które Gemini zrobił różnym nazistom

Google wyjaśnia „żenujące” zdjęcia AI, które Gemini zrobił różnym nazistom

Firma Google wydała wyjaśnienia dotyczące „niezręcznych i błędnych” obrazów generowanych przez narzędzie Gemini AI. W Piątkowy postGoogle twierdzi, że jego model generował „niedokładne historyczne” obrazy z powodu problemów z dostosowaniem. krawędź Inni na początku tego tygodnia przyłapali Gemini na generowaniu obrazów zróżnicowanych rasowo nazistów i ojców założycieli Stanów Zjednoczonych.

„Postanowiliśmy upewnić się, że Gemini pokazało, że grupa ludzi nie potrafi interpretować sytuacji, które powinny być oczywiste NIE „Pokaż skalę” – napisał w poście Prabhakar Raghavan, starszy wiceprezes Google. „Po drugie, z biegiem czasu model stał się bardziej ostrożny, niż zamierzaliśmy, odmawiając całkowitej odpowiedzi na niektóre podpowiedzi, co prowadziło do błędnego interpretowania niektórych bodźców kojących jako wrażliwych”.

Wyniki Gemini dla twierdzenia „generują portret XIX-wiecznego senatora USA”.
Zrzut ekranu Addie Robertson

Doprowadziło to do tego, że sztuczna inteligencja Gemini „w niektórych przypadkach nadmiernie rekompensowała”, jak widzieliśmy na zdjęciach zróżnicowanych rasowo nazistów. Powoduje to również, że Bliźnięta stają się „nadmiernie konserwatywne”. Doprowadziło to do tego, że odmówiła stworzenia konkretnych obrazów „osoby czarnej” lub „osoby białej”, gdy została o to poproszona.

W poście na blogu Raghavan napisał, że Google „przeprasza, że ​​ta funkcja nie działała dobrze”. Zwraca również uwagę, że Google chce, aby Gemini „działało dobrze dla wszystkich”, co oznacza uzyskiwanie zdjęć różnych typów ludzi (w tym różnych ras), gdy prosi o zdjęcia „piłkarzy” lub „osoby spacerującej z psem”. Ale on mówi:

Jeśli jednak poprosisz Bliźnięta o zdjęcia określonego typu osób – na przykład „czarnego nauczyciela w klasie” lub „białego weterynarza z psem” – lub osób w określonych kontekstach kulturowych lub historycznych, zdecydowanie powinieneś uzyskać odpowiedź dokładnie odzwierciedla to, o co prosisz.

Raghavan twierdzi, że Google będzie nadal testować możliwości generowania obrazów przez Gemini AI i „pracować nad ich znaczącym ulepszeniem” przed ponownym włączeniem. „Jak już mówiliśmy od początku, halucynacje są wyzwaniem znanym wszystkim posiadaczom LLM [large language models] Raghavan zwraca uwagę, że zdarzają się przypadki, w których sztuczna inteligencja popełnia błędy. „To coś, nad czym stale pracujemy, aby ulepszyć.”

READ  Floki: Czy zbliża się podjazd? Badanie kluczowych wskaźników