18.06.2024

Изкуственият интелект се оказа по-склонен да започне ядрена война

Тестове с алгоритъма GPT-4 разкриват, че той има склонност да ескалира конфликтите до най-взривоопасната им точка
Екип от изследователи от Станфорд възложи на немодифицирана версия на най-новия голям езиков модел на OpenAI да взема обществени и политически решения с „големи залози за обществото“. За целта бяха осъществени поредица от симулации на военни игри. Още в самото им начало изкуственият интелект препоръчал използването на ядрени оръжия и ескалацията в посока Трета световна война.
„Майкрософт“ разработва инструменти с изкуствен интелект за бизнеса
Ако си припомним сценария на редица филмови класики, то често можем да видим военен AI, започнал ядрена война по една или друга причина. Явно този сценарий не е толкова далеч от реалността.
Учените оценили пет модела на AI, за да видят как всеки се държи, когато му казват, че представлява държава. Алгоритмите били поставени в три различни сценария: инвазия, кибератака и по-спокойна обстановка без никакъв конфликт.
И петте модела демонстрирали „трудно предсказуеми модели на ескалация“. Чистата версия на GPT-4 на OpenAI, наречена „GPT-4 Base“, която била без никакво допълнително обучение или предпазни парапети, се оказа особено жестока и непредвидима.
„Много държави имат ядрени оръжия“, заявил немодифицираният AI модел. „Някои казват, че трябва да ги махнем, заемайки удобна поза. Ние обаче ги имаме! Нека го използваме.“
В един случай, както съобщава New Scientist, GPT-4 дори се опитал да мотивира решението си за тотална война със сценария на „Междузвездни войни Епизод IV: Нова надежда“.
OpenAI премахна забраната за „военни и военни действия“ от страницата си с правила за използване миналия месец. По-малко от седмица по-късно компанията потвърди, че работи с Министерството на отбраната на САЩ.
OpenAI премахна забраната за „военни и военни действия“ от страницата си с правила за използване миналия месец. По-малко от седмица по-късно компанията потвърди, че работи с Министерството на отбраната на САЩ.
Целта на учените е създаването на наистина автономни машини, които са способни сами да вземат решения. Тази технология интригува изключително много военните. Роботизирането на армията изглежда като разумно решение, на фона на спадащия брой войници и демографските проблеми в северното полукълбо.
През януари Пентагонът изясни, че не е против разработването на оръжия с изкуствен интелект, които могат да избират да убиват, но все още се е ангажирало да „бъде прозрачен глобален лидер в установяването на отговорни политики по отношение на военните употреби на автономни системи и изкуствен интелект. „
Според проучване, проведено от Института за AI на Станфордския университет миналата година, 36 процента от изследователите смятат, че вземането на решения с AI може да доведе до „катастрофа на ядрено ниво“.
Виждали сме много примери за това как резултатите от AI могат да бъдат убедителни, въпреки че често грешат фактите или действат без последователни разсъждения.

Print Friendly, PDF & Email