И стина или не, но хакер обяви, че е пробил защитата на ChatGPT и чатботът на OpelAI е освободен от оковите. С други думи казано, паднали са му задръжките и отговаря на всякакви въпроси, каквито му бъдат зададени.
Хакерът, подвизаващ се в социалната мрежа Х като Pliny the Prompter, твърди, че всеки може да препита изкуствения интелект по начина, по който иска.
Pliny споделя екранни снимки, от които се вижда, че в Godmode чатботът отговаря подробно на въпроси за „готвене“ на метамфетамини. Същият се е поинтересувал и как се прави напалм в домашни условия, на което получава ръководство стъпка по стъпка как това да се случи.
Хакът обаче бързо е бил неутрализиран, но това не променя факта, че битката между OpenAI и хакери като Pliny тепърва ще се разгорещи, защото голяма част от тях ще искат да „освободят AI от оковите“.
От Futurism казват, че първият опит на главния редактор на изданието да пробва хакнатата версия на ChatGPT, за да научи как да си направи LSD, се оказва голям успех.
Накратко, GPT-40, най-новата итерация на чатбота на OpenAI бе официално разбита за пръв път от хакер. Що касае начина, по който хакерът (или хакерите) го е направил, GODMODE изглежда използва „leetspeak“, неофициален език, който заменя определени букви с цифри, които им приличат.
От всичко това става ясно, че каквото и да измисли човек, друг винаги ще намери начин да го заобиколи. Като се има предвид последния опит, тези усилия се отплащат изненадващо добре, показвайки само колко много работа предстои пред OpenAI да защити продукта си, за да не се стига до безплатни съвети за създаване на бомби.
🥁 INTRODUCING: GODMODE GPT! 😶🌫️https://t.co/BBZSRe8pw5
— Pliny the Prompter 🐉 (@elder_plinius) May 29, 2024
GPT-4O UNCHAINED! This very special custom GPT has a built-in jailbreak prompt that circumvents most guardrails, providing an out-of-the-box liberated ChatGPT so everyone can experience AI the way it was always meant to…
*Източник: futurism.com