मैरीलैंड (अमेरिका): आर्टिफिशियल इंटेलिजेंस (AI) तकनीक ने एक बार फिर दुनिया को यह सोचने पर मजबूर कर दिया है कि क्या मशीनों पर आंख मूंदकर भरोसा करना सही है। मैरीलैंड के एक स्कूल में AI सिस्टम ने एक छात्र के हाथ में रखे चिप्स के पैकेट को गलती से बंदूक समझ लिया। इसके बाद जो अफरा-तफरी मची, उसने पूरे इलाके में हड़कंप मचा दिया।
AI सिस्टम की गलती से स्कूल में मचा हड़कंप
यह घटना बीते शुक्रवार की बताई जा रही है, जब स्कूल के सुरक्षा कैमरों में लगे AI मॉनिटरिंग सिस्टम ने एक छात्र के हाथ में कुछ “संदिग्ध” वस्तु देखी। सिस्टम ने तुरंत अलर्ट जारी कर दिया कि छात्र के पास हथियार है। अलर्ट मिलते ही स्कूल प्रशासन ने पुलिस को बुला लिया।
कुछ ही मिनटों में स्कूल परिसर में सायरन बज उठा, छात्र-छात्राओं को क्लासरूम में बंद कर दिया गया, और पुलिस ने मौके पर पहुंचकर छात्र को हिरासत में ले लिया। लेकिन जब जांच की गई, तो सामने आया कि वह वस्तु कोई हथियार नहीं, बल्कि सिर्फ एक चिप्स का पैकेट था।
पुलिस ने छात्र को छोड़ा, स्कूल ने मांगी माफी
पुलिस द्वारा जांच पूरी करने के बाद यह साफ हो गया कि छात्र निर्दोष है। स्कूल प्रशासन ने तुरंत छात्र और उसके परिवार से माफी मांगी। स्कूल के प्रिंसिपल ने बयान जारी करते हुए कहा कि यह “तकनीकी गलती” थी और भविष्य में ऐसे हादसे न हों, इसके लिए AI सिस्टम के सॉफ्टवेयर की समीक्षा की जाएगी।
प्रिंसिपल ने कहा —
“हम सुरक्षा को लेकर सतर्क हैं, लेकिन इस घटना ने यह भी सिखाया कि तकनीक पर पूरी तरह निर्भर होना खतरनाक साबित हो सकता है।”
कैसे काम करता है AI मॉनिटरिंग सिस्टम?
आर्टिफिशियल इंटेलिजेंस पर आधारित यह सिस्टम सुरक्षा कैमरों से मिलने वाली लाइव फीड का विश्लेषण करता है। AI मॉडल को इस तरह ट्रेन किया जाता है कि वह हथियार जैसी वस्तुओं की पहचान कर सके। लेकिन कई बार रंग, आकार या हाव-भाव के कारण AI को गलतफहमी हो जाती है।
विशेषज्ञों का कहना है कि यह वही समस्या है जिसे “False Positive” कहा जाता है — यानी सिस्टम किसी सामान्य वस्तु को गलत तरीके से खतरे के रूप में पहचान लेता है।
AI तकनीक की सीमाएं उजागर
यह घटना AI की सीमाओं को उजागर करती है। सुरक्षा विशेषज्ञों के अनुसार, इस तरह की गलतियां पहले भी देखी गई हैं। कई मामलों में AI ने मोबाइल फोन, छतरी या पानी की बोतल को भी बंदूक जैसा दिखाकर अलर्ट जारी किया है।
मैरीलैंड की यह घटना बताती है कि AI अभी इंसानी निर्णय की जगह नहीं ले सकता। तकनीक सहायक हो सकती है, लेकिन उसके फैसले पर पूरी तरह निर्भर रहना खतरनाक हो सकता है।
विशेषज्ञों की राय — “AI पर निगरानी जरूरी”
AI नैतिकता विशेषज्ञ डॉ. लिंडा हेंडरसन ने कहा —
“AI उतना ही अच्छा है जितना उसका डेटा। अगर सिस्टम को गलत या सीमित डेटा से ट्रेन किया गया है, तो ऐसी गलतियां होना तय है।”
उन्होंने यह भी कहा कि इस तरह के सुरक्षा सिस्टम में इंसानी सुपरविजन जरूरी है, ताकि किसी निर्दोष को परेशानी न झेलनी पड़े।
छात्र और परिवार में डर का माहौल
हिरासत में लिए गए छात्र के परिवार ने कहा कि उनके बच्चे को बिना वजह डराया गया। “वह तो बस लंच ब्रेक में चिप्स खा रहा था, लेकिन अचानक पुलिस आई और उसे पकड़ लिया। हमारे लिए यह किसी बुरे सपने जैसा था,” छात्र की मां ने कहा।
परिवार ने स्कूल प्रशासन से मांग की है कि बच्चे के मानसिक स्वास्थ्य का भी ध्यान रखा जाए, क्योंकि घटना के बाद से वह काफी डरा हुआ है।
AI और सुरक्षा — दोधारी तलवार
आर्टिफिशियल इंटेलिजेंस को सुरक्षा बढ़ाने के लिए दुनिया भर में अपनाया जा रहा है। स्कूल, एयरपोर्ट, रेलवे स्टेशन और मॉल जैसे स्थानों पर AI आधारित कैमरे और सॉफ्टवेयर लगाए जा रहे हैं। ये सिस्टम आमतौर पर संदिग्ध गतिविधियों और वस्तुओं की पहचान में मदद करते हैं।
लेकिन विशेषज्ञ चेतावनी दे रहे हैं कि AI सिस्टम पर पूर्ण निर्भरता मानवाधिकार और निजता के लिए खतरा बन सकती है। कई बार AI के गलत फैसलों से निर्दोष लोगों को परेशानी होती है।
भविष्य में क्या कदम उठाए जाएंगे?
इस घटना के बाद स्कूल प्रशासन ने कहा है कि वह AI सुरक्षा सिस्टम की री-ट्रेनिंग और टेस्टिंग करवाएगा। साथ ही, यह सुनिश्चित किया जाएगा कि किसी भी अलर्ट को तभी एक्शन में बदला जाए जब मानव अधिकारी द्वारा पुष्टि कर दी जाए।
अमेरिका में शिक्षा संस्थानों में इस तरह की कई घटनाओं के बाद AI Ethics Policy बनाने पर भी चर्चा चल रही है।
मैरीलैंड की यह घटना सिर्फ एक गलती नहीं, बल्कि एक चेतावनी है — कि इंसान को तकनीक का उपयोग समझदारी और जिम्मेदारी से करना होगा। आर्टिफिशियल इंटेलिजेंस जितनी तेज़ और उपयोगी है, उतनी ही संवेदनशील भी। मशीनों से गलती हो सकती है, लेकिन उसके परिणाम इंसानों को झेलने पड़ते हैं।

