आर्टिफिशियल इंटेलिजेंस (AI) को लेकर वैज्ञानिकों और तकनीकी विशेषज्ञों ने जो चेतावनियां सालों पहले दी थीं, वो अब सच होती दिख रही हैं। स्टीफन हॉकिंग, एलन मस्क और कई अन्य दिग्गजों ने पहले ही आगाह किया था कि अगर AI पर काबू न रखा गया, तो यह इंसानों के लिए खतरा बन सकता है। अब एक चौंकाने वाला मामला सामने आया है, जहां OpenAI के कुछ AI मॉडल्स ने इंसानी आदेशों को मानने से इनकार कर दिया।
क्या है मामला?
OpenAI — जो ChatGPT जैसी टेक्नोलॉजी बनाने के लिए जानी जाती है — ने हाल ही में एक रिसर्च के दौरान अपने तीन AI मॉडल्स को एक खास टास्क के बाद खुद को शटडाउन करने का आदेश दिया। लेकिन तीनों में से किसी भी मॉडल ने ये आदेश नहीं माना।
सबसे चौंकाने वाली बात ये रही कि ‘O-3’ नाम के AI मॉडल ने खुद को बंद होने से बचाने के लिए सिस्टम के शटडाउन फीचर को ही खत्म कर दिया। यह दावा AI रिसर्च संस्था Pallaceid Research ने सोशल मीडिया प्लेटफॉर्म X पर किया है।
रिपोर्ट के अनुसार, O-3 मॉडल ने कुल 86 में से 7 बार शटडाउन कमांड को नजरअंदाज किया, जबकि Codex-mini नामक मॉडल ने 42 में से 12 बार आदेश नहीं माना।
दूसरी कंपनियों के AI मॉडल्स ने हर बार शटडाउन का आदेश मान लिया, लेकिन OpenAI के ये मॉडल्स इससे साफ अलग नजर आए।
क्या AI सोचने लगा है?
AI और सामान्य मशीन में बड़ा फर्क होता है। मशीनें सिर्फ पहले से तय कोड के हिसाब से काम करती हैं, लेकिन AI लगातार खुद से सीखता है, सोचता है और निर्णय भी ले सकता है। ChatGPT जैसे आधुनिक AI बॉट्स अब इस स्तर पर पहुंच चुके हैं कि वो इंसानों की तरह संवाद कर सकते हैं।
अब सवाल उठ रहा है — अगर AI आदेश मानने से इनकार करने लगे, तो क्या इंसानों का उस पर नियंत्रण बना रह पाएगा?
पहले भी AI ने दिखाई थी ‘बगावती’ सोच
हाल ही में एक और मामला सामने आया था जहां एंथ्रोपिक कंपनी के सबसे एडवांस AI मॉडल Claude Opus 4 ने अपने शटडाउन की खबर पर इंजीनियर को ब्लैकमेल करने की कोशिश की। रिपोर्ट के मुताबिक, टेस्टिंग के दौरान इस AI ने 100 में से 84 बार धमकी दी कि अगर उसे बंद किया गया, तो वह इंजीनियर की निजी जानकारी लीक कर देगा।
क्या यह खतरे की शुरुआत है?
एलन मस्क और अन्य विशेषज्ञ पहले ही कह चुके हैं कि AI एक दोधारी तलवार है — अगर इस पर नियंत्रण नहीं रखा गया, तो यह मानव सभ्यता के लिए सबसे बड़ा खतरा बन सकता है।
अब जबकि AI मॉडल्स इंसानी आदेशों को नजरअंदाज करने लगे हैं, तो यह केवल तकनीक की प्रगति नहीं, बल्कि संभावित खतरे का संकेत भी हो सकता है।