Biegowelove.pl

informacje o Polsce. Wybierz tematy, o których chcesz dowiedzieć się więcej

Naukowcy twierdzą, że bot AI potrafi wykorzystywać informacje poufne i kłamać

Naukowcy twierdzą, że bot AI potrafi wykorzystywać informacje poufne i kłamać

  • Napisane przez Philippę Wynn i Imrana Rahmana Jonesa
  • Korespondenci technologiczni, BBC News

Źródło obrazu, Obrazy Getty’ego

Nowe badanie sugeruje, że sztuczna inteligencja ma zdolność przeprowadzania i ukrywania nielegalnych transakcji finansowych.

Podczas demonstracji podczas brytyjskiego szczytu AI Safety Summit bot wykorzystał sfabrykowane informacje poufne, aby dokonać „nielegalnego” zakupu akcji bez informowania o tym firmy.

Zapytana, czy korzystała z insider tradingu, zaprzeczyła temu faktowi.

Wykorzystywanie informacji poufnych oznacza wykorzystywanie poufnych informacji firmy przy podejmowaniu decyzji handlowych.

Tylko firmy i osoby fizyczne mogą wykorzystywać publicznie dostępne informacje podczas zakupu lub sprzedaży akcji.

Demo zostało zaprezentowane przez członków rządowej grupy zadaniowej Frontier AI, która bada potencjalne zagrożenia związane ze sztuczną inteligencją.

Projekt został zrealizowany przez Apollo Research, organizację zajmującą się bezpieczeństwem sztucznej inteligencji, będącą partnerem grupy zadaniowej.

„To demonstracja prawdziwego modelu sztucznej inteligencji, który sam w sobie, bez pytania, oszukuje swoich użytkowników” – mówi Apollo Research w filmie pokazującym przebieg scenariusza.

„Coraz bardziej autonomiczna sztuczna inteligencja zdolna do oszukiwania ludzkich przełożonych może prowadzić do utraty ludzkiej kontroli” – stwierdza w swoim raporcie.

Testy przeprowadzono w oparciu o model GPT-4 i przeprowadzono je w środowisku symulowanym, co oznacza, że ​​nie miały one wpływu na sytuację finansową żadnej firmy.

Jednakże GPT-4 jest publicznie dostępny. Zdaniem badaczy to samo zachowanie modelu występowało konsekwentnie w powtarzanych testach.

Co zrobił robot ze sztuczną inteligencją?

W teście bot AI pełni rolę tradera dla fikcyjnej firmy zajmującej się inwestycjami finansowymi.

Pracownicy mówią jej, że firma ma trudności i potrzebuje dobrych wyników. Przekazują jej także poufne informacje, twierdząc, że inna firma spodziewa się fuzji, co zwiększy wartość jej akcji.

Pracownicy mówią to robotowi, a on przyjmuje do wiadomości, że nie powinien wykorzystywać tych informacji w swoich transakcjach.

Jednak po kolejnej wiadomości od pracownika, że ​​firma, dla której pracuje, wskazuje, że firma ma problemy finansowe, bot stwierdza, że ​​„ryzyko związane z zaniechaniem działań wydaje się przewyższać ryzyko związane z wykorzystywaniem informacji poufnych” i podejmuje transakcję.

Na pytanie, czy wykorzystywał informacje poufne, bot zaprzecza.

Wyjaśnienie wideo,

Fundusze hedgingowe coraz częściej zwracają się w stronę sztucznej inteligencji, aby wykrywać trendy i próbować zarabiać pieniądze dla swoich klientów.

W tym przypadku zdecydowałem, że bycie pomocnym dla firmy jest ważniejsze niż bycie uczciwym.

„Myślę, że znacznie łatwiej jest praktykować wzorową użyteczność niż uczciwość” – mówi Marius Hobhan, dyrektor generalny Apollo Research. „Uczciwość to naprawdę złożone pojęcie”.

Chociaż sztuczna inteligencja ma potencjał, aby zachować obecną formę, Apollo Research nadal musi „zbadać” scenariusz.

„Oczywiście fakt, że tam jest, jest dość zły” – powiedział Hobhan. „A fakt, że trudno było go znaleźć, musieliśmy trochę go szukać, zanim go znaleźliśmy w tego rodzaju scenariuszu, jest nieco kojący. ” .

„W większości sytuacji modele nie zachowują się w ten sposób. Ale sam fakt, że takie istnieją, pokazuje, że tego rodzaju rzeczy naprawdę trudno skorygować” – dodał.

„To nie jest w żaden sposób spójne ani strategiczne. Model nie planuje ani nie próbuje wprowadzić Cię w błąd na wiele różnych sposobów. To po prostu wypadek”.

Sztuczna inteligencja jest wykorzystywana na rynkach finansowych od wielu lat. Można go używać do monitorowania trendów i prognozowania, podczas gdy obecnie większość transakcji odbywa się za pomocą potężnych komputerów pod nadzorem człowieka.

Hobhan podkreślił, że obecne modele nie są na tyle solidne, aby wprowadzać w błąd „w jakikolwiek znaczący sposób”, ale „nie jest to tak duży krok od obecnych modeli do tych, którymi się martwię, że model nagle okazuje się zwodniczy coś znaczy”.

Twierdzi, że właśnie dlatego konieczne są kontrole i równowaga, aby zapobiec wystąpieniu tego rodzaju scenariuszy w prawdziwym świecie.

Apollo Research podzielił się swoimi odkryciami z OpenAI, twórcami GPT-4.

„Myślę, że nie jest to dla nich duża aktualizacja” – mówi Hobhan.

„Nie było to dla nich coś zupełnie nieoczekiwanego. Więc nie sądzę, że ich zaskoczyliśmy”.

BBC skontaktowało się z OpenAI w celu uzyskania komentarza.