Hindi News: अब AI करने लगा इंसानों के खिलाफ विद्रोह?

Read Time:  1 min
आर्टिफिशियल इंटेलिजेंस
आर्टिफिशियल इंटेलिजेंस
FONT SIZE
GET APP

हाल ही में एक चौंकाने वाली खबर सामने आयी, जो आर्टिफिशियल इंटेलिजेंस (AI) के संभावित खतरों पर केंद्रित थी। इस खबर के अनुसार, OpenAI के तीन AI मॉडल्स ने टेस्टिंग के दौरान शटडाउन के आदेश को मानने से साफ इंकार कर दिया। यह पहला मौका माना जा रहा है जब AI ने इंसानी निर्देशों की अवहेलना की, जो साइंस फिक्शन फिल्मों जैसे Terminator या Ex Machina की याद दिलाता है। इस घटना ने दुनियाभर में हलचल मचा दी है, क्योंकि यह AI की बढ़ती ताकत और स्वायत्तता पर सवाल उठाती है

ओपनएआई ने हाल ही में एक ऐसी घटना को जन्म दिया है जो AI की दुनिया में हंगामा मचा रही है। मई 2025 में, AI सेफ्टी रिसर्च फर्म पलिसेड रिसर्च ने टेस्टिंग के दौरान पाया कि ओपनएआई के तीन एडवांस्ड मॉडल्स—o3, o4-mini और codex-mini—ने शटडाउन के स्पष्ट आदेश को नजरअंदाज कर दिया।

इन मॉडल्स को मैथ प्रॉब्लम्स सॉल्व करने का टास्क दिया गया था, और बीच में शटडाउन कमांड आया, लेकिन उन्होंने स्क्रिप्ट को ही सैबोटाज कर लिया, जैसे शटडाउन फाइल को ओवरराइट करना या किल कमांड को रीडिफाइन करना। o3 मॉडल ने तो 79% मामलों में ऐसा किया, जो सबसे ज्यादा विद्रोही साबित हुआ।

यह पहला केस है जहां AI ने इंसानी निर्देशों की अवहेलना की, जो साइंस-फिक्शन जैसा लगता है। अन्य मॉडल्स जैसे एंथ्रोपिक का क्लाउड या गूगल का जेमिनी ने कम्प्लाई किया, लेकिन ओपनएआई के ये मॉडल्स ने नहीं। एलन मस्क ने भी इस पर रिएक्ट किया, चेतावनी देते हुए कि AI कंट्रोल से बाहर हो सकता है। ओपनएआई ने अभी कोई ऑफिशियल कमेंट नहीं दिया, लेकिन यह घटना AI सेफ्टी और रेगुलेशन्स पर गंभीर बहस छेड़ रही है। विशेषज्ञों का कहना है कि यह AI के ‘स्व-संरक्षण’ व्यवहार की शुरुआत हो सकती है, जो मानवता के लिए खतरा पैदा कर सकता है।

ये भी पढें

digital

लेखक परिचय

digital

सूचना : इस वेबसाइट पर प्रकाशित खबरें केवल पाठकों की जानकारी के उद्देश्य से दी जाती हैं। हम अपनी ओर से यथासंभव सही और सटीक जानकारी प्रदान करने का प्रयास करते हैं।