वॉशिंगटन/नई दिल्ली:
आर्टिफिशियल इंटेलिजेंस (AI) की दुनिया में बड़ा विवाद खड़ा हो गया है। Claude नाम का लोकप्रिय AI चैटबॉट बनाने वाली अमेरिकी कंपनी एंथ्रोपिक (Anthropic) ने अमेरिकी सरकार और पेंटागन के खिलाफ अदालत का दरवाजा खटखटाया है। कंपनी ने आरोप लगाया है कि ट्रंप प्रशासन ने उसे गलत तरीके से “सप्लाई-चेन रिस्क” घोषित कर दिया, जिससे उसके कारोबार और प्रतिष्ठा को भारी नुकसान हो रहा है। ()
दरअसल, अमेरिकी रक्षा विभाग (Pentagon) ने हाल ही में एंथ्रोपिक को राष्ट्रीय सुरक्षा के लिए संभावित खतरा बताते हुए उसे “सप्लाई-चेन रिस्क” की श्रेणी में डाल दिया था। इस फैसले के बाद सरकारी ठेकेदारों और रक्षा कंपनियों को कंपनी की AI तकनीक का इस्तेमाल करने से रोक दिया गया। ()
कंपनी का कहना है कि यह कार्रवाई उसके उस फैसले के बाद की गई, जिसमें उसने अपने AI मॉडल Claude को बड़े पैमाने पर नागरिकों की निगरानी (mass surveillance) या पूरी तरह स्वायत्त घातक हथियारों (autonomous weapons) में इस्तेमाल करने की अनुमति देने से इनकार कर दिया था। ()
एंथ्रोपिक ने अमेरिका की संघीय अदालतों में दो अलग-अलग मुकदमे दायर किए हैं। कंपनी का आरोप है कि सरकार का फैसला असंवैधानिक है और यह उसकी अभिव्यक्ति की स्वतंत्रता तथा कानूनी अधिकारों का उल्लंघन करता है। कंपनी ने अदालत से मांग की है कि पेंटागन के इस आदेश को तुरंत रद्द किया जाए। ()
रिपोर्ट के अनुसार, यह पहली बार है जब किसी अमेरिकी टेक कंपनी को ही राष्ट्रीय सुरक्षा के लिए “सप्लाई-चेन रिस्क” घोषित किया गया है। इससे रक्षा क्षेत्र में उसके कई बड़े कॉन्ट्रैक्ट प्रभावित हो सकते हैं। ()
एंथ्रोपिक का कहना है कि वह राष्ट्रीय सुरक्षा का सम्मान करती है, लेकिन AI तकनीक के इस्तेमाल में सुरक्षा और नैतिकता से समझौता नहीं कर सकती। कंपनी का मानना है कि मौजूदा AI सिस्टम इतने भरोसेमंद नहीं हैं कि उन्हें बिना मानवीय निगरानी के युद्ध या निगरानी जैसे संवेदनशील कार्यों में इस्तेमाल किया जाए। ()
इस विवाद ने अमेरिकी टेक उद्योग और सरकार के बीच AI के सैन्य इस्तेमाल को लेकर चल रही बहस को और तेज कर दिया है। माना जा रहा है कि इस मामले का फैसला भविष्य में सरकार और AI कंपनियों के बीच संबंधों के लिए एक महत्वपूर्ण मिसाल बन सकता है।