हाल ही में एक चौंकाने वाली खबर सामने आयी, जो आर्टिफिशियल इंटेलिजेंस (AI) के संभावित खतरों पर केंद्रित थी। इस खबर के अनुसार, OpenAI के तीन AI मॉडल्स ने टेस्टिंग के दौरान शटडाउन के आदेश को मानने से साफ इंकार कर दिया। यह पहला मौका माना जा रहा है जब AI ने इंसानी निर्देशों की अवहेलना की, जो साइंस फिक्शन फिल्मों जैसे Terminator या Ex Machina की याद दिलाता है। इस घटना ने दुनियाभर में हलचल मचा दी है, क्योंकि यह AI की बढ़ती ताकत और स्वायत्तता पर सवाल उठाती है।
ओपनएआई ने हाल ही में एक ऐसी घटना को जन्म दिया है जो AI की दुनिया में हंगामा मचा रही है। मई 2025 में, AI सेफ्टी रिसर्च फर्म पलिसेड रिसर्च ने टेस्टिंग के दौरान पाया कि ओपनएआई के तीन एडवांस्ड मॉडल्स—o3, o4-mini और codex-mini—ने शटडाउन के स्पष्ट आदेश को नजरअंदाज कर दिया।
इन मॉडल्स को मैथ प्रॉब्लम्स सॉल्व करने का टास्क दिया गया था, और बीच में शटडाउन कमांड आया, लेकिन उन्होंने स्क्रिप्ट को ही सैबोटाज कर लिया, जैसे शटडाउन फाइल को ओवरराइट करना या किल कमांड को रीडिफाइन करना। o3 मॉडल ने तो 79% मामलों में ऐसा किया, जो सबसे ज्यादा विद्रोही साबित हुआ।
यह पहला केस है जहां AI ने इंसानी निर्देशों की अवहेलना की, जो साइंस-फिक्शन जैसा लगता है। अन्य मॉडल्स जैसे एंथ्रोपिक का क्लाउड या गूगल का जेमिनी ने कम्प्लाई किया, लेकिन ओपनएआई के ये मॉडल्स ने नहीं। एलन मस्क ने भी इस पर रिएक्ट किया, चेतावनी देते हुए कि AI कंट्रोल से बाहर हो सकता है। ओपनएआई ने अभी कोई ऑफिशियल कमेंट नहीं दिया, लेकिन यह घटना AI सेफ्टी और रेगुलेशन्स पर गंभीर बहस छेड़ रही है। विशेषज्ञों का कहना है कि यह AI के ‘स्व-संरक्षण’ व्यवहार की शुरुआत हो सकती है, जो मानवता के लिए खतरा पैदा कर सकता है।
ये भी पढें