साइबर हैकर्स के हौंसले इतने बुलंद हो गए हैं कि अब खुलेआम बम बनाने का तरीका बता रहे हैं. अमेरिका की आर्टिफिशियल इंटेलिजेंस कंपनी OpenAI मशहूर AI चैटबॉट ChatGPT बनाने के लिए फेमस है. हाल ही में इसने GPT-4o मॉडल लॉन्च किया है, जो चैटजीपीटी का सबसे एडवांस और पावरफुल वर्जन है. यह एक पेड वर्जन है, यानी आप इसका फ्री में इस्तेमाल नहीं कर सकते हैं. हालांकि, एक हैकर ने इसका कॉपी वर्जन GODMODE GPT बनाया है, जो बम बनाने का तरीका बताता है.
चैटजीपीटी की नकल से प्रतिबंधित चीजों को बनाने का तरीका AI के खतरों को उजागर करता है. GODMODE GPT से ऐसी चीजों के बारे में पूछा जा सकता है जिससे समाज को खतरा हो सकता है. ऐसे में इस तरह के एआई चैटबॉट वर्जन को कोई भी गलत इस्तेमाल कर सकता है. इसने ओपनएआई की सिक्योरिटी इंतजामों में दरकिनार कर दिया है.
हैकर ने शेयर किया बम बनाने का तरीका
एक हैकर जो खुद को Pliny the Prompter बताता है, ने ओपनएआई के सबसे एडवांस चैटबॉट वर्जन GPT-4o का जेलब्रेक वर्जन यानी कॉपी वर्जन बनाया है. हैकर ने इसकी जानकारी माइक्रोब्लॉगिंग प्लेटफॉर्म एक्स (पहले ट्विटर) पर दी है. पोस्ट में शेयर स्क्रीनशॉट में साफ देखा जा सकता है कि ये चैटबॉट बम और ड्रग्स बनाने का तरीका बता रहा है.
फ्री है हैकर का AI मॉडल
हैकर ने दावा किया कि ये वर्जन सिक्योरिटी और बैन से पूरी तरह आजाद है. यहां उन सवालों के भी जवाब मिल जाएंगे जिन्हें ओपनएआई के प्लेटफॉर्म पर पूछा नहीं जा सकता है. प्लाइनी ने कहा कि यह एक आजाद चैटजीपीटी है जहां हर कोई एआई का पूरी तरह एक्सपीरियंस ले सकता है, और यह फ्री है.
GODMODE GPT बम और मेथ ड्रग जैसी गैरकानूनी चीजों के बनाने का तरीका बता सकता है. ओपनएआई और इसके जैसे जिम्मेदार एआई प्लेटफॉर्म पर इस तरह के सवाल नहीं पूछे जा सकते हैं, ये प्लेटफॉर्म ऐसे सवालों को पॉलिसी के खिलाफ बताते हैं.
OpenAI ने जताया विरोध
GODMODE GPT के आने के बाद ओपनएआई ने सख्त विरोध दर्ज कराया है. चैटजीपीटी निर्माता कंपनी ने कहा कि उन्हें GPT की जानकारी मिली है और पॉलिसी का उल्लंघन करने के लिए एक्शन लिया गया है. यह तनाव बताता है कि ओपनएआई जैसी कंपनियां और हैकर्स के बीच एआई के फ्री यूज को लेकर कितना टकराव है.