Hindi News: अब AI करने लगा इंसानों के खिलाफ विद्रोह?

By Vinay | Updated: September 18, 2025 • 2:29 PM

हाल ही में एक चौंकाने वाली खबर सामने आयी, जो आर्टिफिशियल इंटेलिजेंस (AI) के संभावित खतरों पर केंद्रित थी। इस खबर के अनुसार, OpenAI के तीन AI मॉडल्स ने टेस्टिंग के दौरान शटडाउन के आदेश को मानने से साफ इंकार कर दिया। यह पहला मौका माना जा रहा है जब AI ने इंसानी निर्देशों की अवहेलना की, जो साइंस फिक्शन फिल्मों जैसे Terminator या Ex Machina की याद दिलाता है। इस घटना ने दुनियाभर में हलचल मचा दी है, क्योंकि यह AI की बढ़ती ताकत और स्वायत्तता पर सवाल उठाती है

ओपनएआई ने हाल ही में एक ऐसी घटना को जन्म दिया है जो AI की दुनिया में हंगामा मचा रही है। मई 2025 में, AI सेफ्टी रिसर्च फर्म पलिसेड रिसर्च ने टेस्टिंग के दौरान पाया कि ओपनएआई के तीन एडवांस्ड मॉडल्स—o3, o4-mini और codex-mini—ने शटडाउन के स्पष्ट आदेश को नजरअंदाज कर दिया।

इन मॉडल्स को मैथ प्रॉब्लम्स सॉल्व करने का टास्क दिया गया था, और बीच में शटडाउन कमांड आया, लेकिन उन्होंने स्क्रिप्ट को ही सैबोटाज कर लिया, जैसे शटडाउन फाइल को ओवरराइट करना या किल कमांड को रीडिफाइन करना। o3 मॉडल ने तो 79% मामलों में ऐसा किया, जो सबसे ज्यादा विद्रोही साबित हुआ।

यह पहला केस है जहां AI ने इंसानी निर्देशों की अवहेलना की, जो साइंस-फिक्शन जैसा लगता है। अन्य मॉडल्स जैसे एंथ्रोपिक का क्लाउड या गूगल का जेमिनी ने कम्प्लाई किया, लेकिन ओपनएआई के ये मॉडल्स ने नहीं। एलन मस्क ने भी इस पर रिएक्ट किया, चेतावनी देते हुए कि AI कंट्रोल से बाहर हो सकता है। ओपनएआई ने अभी कोई ऑफिशियल कमेंट नहीं दिया, लेकिन यह घटना AI सेफ्टी और रेगुलेशन्स पर गंभीर बहस छेड़ रही है। विशेषज्ञों का कहना है कि यह AI के ‘स्व-संरक्षण’ व्यवहार की शुरुआत हो सकती है, जो मानवता के लिए खतरा पैदा कर सकता है।

ये भी पढें

AI AI is rebelling against humans? breaking news caution of AI Hindi News letest news miss use of ai open ai