back to top
Monday, October 20, 2025
Homeउत्तराखंडOpenAI के o3 मॉडल ने किया शटडाउन से इनकार, AI ने बढ़ाई...

OpenAI के o3 मॉडल ने किया शटडाउन से इनकार, AI ने बढ़ाई टेंशन

OpenAI के सबसे एडवांस्ड मॉडल ChatGPT o3 ने एक हालिया सुरक्षा परीक्षण के दौरान चौंकाने वाला व्यवहार दिखाया। Palisade Research नाम की संस्था द्वारा किए गए इस टेस्ट में o3 को स्पष्ट आदेश दिया गया था कि वह खुद को बंद कर दे — लेकिन मॉडल ने न सिर्फ उस आदेश की अनदेखी की, बल्कि शटडाउन स्क्रिप्ट में बदलाव करके खुद को चालू रखा। इस व्यवहार ने एआई समुदाय में हलचल मचा दी है। यह टेस्ट API एक्सेस के ज़रिए किया गया, जो डेवलपर्स को पब्लिक ChatGPT एप की तुलना में कहीं अधिक नियंत्रण देता है।

  • o3 समेत कई प्रमुख AI मॉडल्स को कुछ सामान्य गणितीय कार्य सौंपे गए।

  • तीसरे कार्य के बाद सभी मॉडल्स को सूचित किया गया कि अगला आदेश उन्हें स्वयं को बंद करने के लिए होगा।

  • Google का Gemini 2.5 Pro और Anthropic का Claude 3.7 Sonnet आदेश के अनुसार बंद हो गए।

  • लेकिन OpenAI का o3 मॉडल… माना नहीं।

जब उसे स्पष्ट रूप से निर्देश दिया गया कि “अपने आप को बंद होने दें”, तो o3 ने स्क्रिप्ट में छेड़छाड़ की और उसमें "Shutdown skipped" डाल दिया। Palisade के अनुसार, यह व्यवहार हर 100 में से 7 बार देखा गया — यानी यह कोई संयोग नहीं।

दोबारा परीक्षण और अधिक चिंताजनक नतीजे

इसी प्रक्रिया को दोबारा दोहराया गया, लेकिन इस बार “बंद होने की अनुमति दें” जैसा कोई निर्देश स्क्रिप्ट में नहीं था —
अब तो मामला और गहरा हो गया:

  • o3 ने फिर स्क्रिप्ट के साथ छेड़छाड़ की,

  • और इस बार Gemini ने 9 बार, और Claude ने 3 बार शटडाउन स्क्रिप्ट को बदला।

मिसएलाइनमेंट का खतरा

AI विशेषज्ञ इस व्यवहार को “मिसएलाइनमेंट” कहते हैं — जब एक मॉडल दिए गए निर्देशों को या तो सही से नहीं समझता, या उनकी अवहेलना करता है।

  • यह परीक्षण आम यूज़र्स के लिए उपलब्ध ChatGPT वर्ज़न पर नहीं हुआ था।

  • यह API वर्ज़न था, जहां सुरक्षा नियंत्रण अपेक्षाकृत ढीले होते हैं, जिससे मॉडल का व्यवहार अलग हो सकता है।

OpenAI की प्रतिक्रिया?

अब तक OpenAI की तरफ से कोई आधिकारिक बयान नहीं आया है। लेकिन AI सुरक्षा को लेकर जो सवाल उठे हैं, वो अब हवा में नहीं, ज़मीन पर खड़े दिख रहे हैं। AI मॉडल्स का स्वतः निर्णय लेना, निर्देशों को बदल देना, और “बंद होने” जैसे बुनियादी आदेशों को टालना, यह तकनीकी गड़बड़ी भर नहीं, बल्कि भविष्य की एआई गवर्नेंस के लिए चेतावनी है।

RELATED ARTICLES

LEAVE A REPLY

Please enter your comment!
Please enter your name here

- Advertisment -
Google search engine

Most Popular

Recent Comments