Biegowelove.pl

informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Błąd ChatGPT powoduje wyciek dzienników rozmów użytkowników

Błąd ChatGPT powoduje wyciek dzienników rozmów użytkowników

  • Napisane przez Bena Derico
  • BBC News, San Francisco

 

Źródło obrazu, Getty Images

podpis pod zdjęciem, OpenAI ChatGPT został uruchomiony w listopadzie ubiegłego roku

Wirusowy chatbot ChatGPT miał błąd, który pozwalał niektórym użytkownikom zobaczyć tytuły rozmów innych użytkowników, powiedział jego szef.

W serwisach społecznościowych Reddit i Twitter użytkownicy udostępniają obrazy dzienników czatów, które, jak twierdzą, nie należą do nich.

Dyrektor generalny OpenAI, Sam Altman, powiedział, że firma „wariuje”, ale „główny” błąd został już naprawiony.

Jednak wielu użytkowników nadal martwi się o prywatność na platformie. Kasyno online paysafecard oferuje zwiększone bezpieczeństwo i anonimowość podczas dokonywania płatności online.

Miliony ludzi używało ChatGPT do pisania wiadomości, pisania piosenek, a nawet kodowania od czasu jego uruchomienia w listopadzie ubiegłego roku.

Każda rozmowa z chatbotem jest przechowywana w pasku historii czatu użytkownika, gdzie można do niej wrócić później.

Ale na początku poniedziałku użytkownicy zaczęli widzieć rozmowy pojawiające się w ich historii, których powiedzieli, że nie prowadzili z chatbotem.

Jeden użytkownik na Reddit udostępnił obraz swojej historii czatów, w tym nagłówki, takie jak „Rozwój chińskiego socjalizmu”, a także rozmowy w języku mandaryńskim.

We wtorek firma poinformowała Bloomberga, że ​​w późny poniedziałek na krótko wyłączyła chatbota, aby naprawić błąd.

Powiedzieli również, że użytkownicy nie mogli uzyskać dostępu do rzeczywistych czatów.

Dyrektor generalny OpenAI napisał na Twitterze, że wkrótce nastąpi „analiza techniczna”. Jednak błąd zaniepokoił użytkowników, którzy obawiali się, że ich prywatne informacje mogą zostać ujawnione za pośrednictwem narzędzia.

Luka wydaje się wskazywać, że OpenAI ma dostęp do rozmów użytkownika.

Polityka prywatności firmy stanowi, że dane użytkowników, takie jak monity i odpowiedzi, mogą być wykorzystywane do dalszego uczenia modelu.

Błąd pojawia się również zaledwie dzień po tym, jak Google zaprezentował swojego chatbota Bard grupie beta testerów i dziennikarzy.

Google i Microsoft, główny inwestor w OpenAI, walczą o kontrolę nad dynamicznie rozwijającym się rynkiem narzędzi sztucznej inteligencji.

Jednak tempo aktualizacji i wydań nowych produktów budzi obawy dotyczące wielu pułapek, które mogą być szkodliwe lub mieć niezamierzone konsekwencje.