सोर्सिंग और एआई की सुरक्षा सुनिश्चित करना

परिचय

कृत्रिम बुद्धिमत्ता (एआई) का विकास अब धन और शक्ति के केंद्रीकरण से चिह्नित है; फिर भी, ओपन-सोर्स एआई इन केंद्रीकरणों से निपटने में एक उपयोगी उपकरण हो सकता है। इस बीच, उभरते हुए आश्वासन विधियों को “अच्छी” प्रथाओं को परिभाषित करने के लिए कानून की आवश्यकता है। व्यापार संघ टेकयूके द्वारा आयोजित नौवें वार्षिक डिजिटल नैतिकता शिखर सम्मेलन में, पैनलिस्टों ने कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों के विकास में शामिल विभिन्न गतिकी पर चर्चा की। इन गतिकी में ओपन-सोर्स दृष्टिकोणों का कम उपयोग, एआई आश्वासन की निरंतर और पुनरावर्ती आवश्यकता, और वर्तमान आश्वासन प्रथाओं को सूचित करने के लिए विनियमन की आवश्यकता शामिल है।

दिसंबर 2023 और 2024 में आयोजित पिछले दो शिखर सम्मेलनों में भाग लेने वाले प्रतिनिधियों ने नेक इरादों वाले नैतिक एआई सिद्धांतों को ठोस व्यावहारिक उपायों में बदलने के महत्व पर जोर दिया। उन्होंने एआई के सामाजिक-तकनीकी स्वरूप को ध्यान में रखते हुए किसी भी नियमन की आवश्यकता पर भी प्रकाश डाला, जिसमें अधिक असमानता और शक्ति के केंद्रीकरण को बढ़ावा देने की क्षमता है। यह प्रश्न कि प्रौद्योगिकियों के निर्माण और तैनाती के तरीके का निर्णय और नियंत्रण कौन करता है, साथ ही “नैतिक” व्यवहार क्या है, इस पर चर्चा का नेतृत्व करने का अधिकार किसे है, पहले हुए सम्मेलनों में चर्चा का एक प्रमुख विषय था।

फ़ज़ी लैब्स के मुख्य प्रौद्योगिकी अधिकारी और संस्थापक

इस वर्ष की चर्चाओं का केंद्र यूनाइटेड किंगडम में कृत्रिम बुद्धिमत्ता आश्वासन पारिस्थितिकी तंत्र के विस्तार के साथ-साथ अधिक खुली तकनीकों के माध्यम से एआई के निरंतर विकास को किस हद तक लोकतांत्रिक बनाया जा सकता है, इस पर केंद्रित था। जबकि 2025 में शिखर सम्मेलन में हुई चर्चाओं में भी इन्हीं मुद्दों पर बात हुई थी, इस वर्ष की चर्चाओं का मुख्य विषय वही रहा। ओपन-सोर्स पारिस्थितिकी तंत्र और प्रतिमान: ओपन-सोर्स बनाम क्लोज्ड-सोर्स कृत्रिम बुद्धिमत्ता मॉडल के फायदे और नुकसान पर चर्चा के दौरान, प्रस्तुतकर्ताओं ने बताया कि अधिकांश मॉडल स्पष्ट रूप से किसी एक श्रेणी में नहीं आते, बल्कि एक स्पेक्ट्रम पर मौजूद होते हैं, जहां प्रत्येक मॉडल के तत्व या तो ओपन होते हैं या क्लोज्ड।

दूसरी ओर, यह बात भी स्पष्ट हो गई कि वास्तव में ओपन सोर्स मॉडल और विधियों की संख्या बहुत सीमित है। उदाहरण के लिए, फ़ज़ी लैब्स के मुख्य प्रौद्योगिकी अधिकारी और संस्थापक मैथ्यू स्क्वॉयर ने कहा कि “इनमें से कई दिखने में ओपन सोर्स मॉडल वास्तव में केवल मॉडल वेट्स को ही ओपन सोर्स के रूप में पेश कर रहे हैं।” मॉडल वेट्स मूल रूप से वे पैरामीटर होते हैं जिनका उपयोग मॉडल इनपुट डेटा को आउटपुट में बदलने के लिए करता है।

मोज़िला टेक्नोलॉजीज।

इस तथ्य को ध्यान में रखते हुए कि मॉडल डेवलपर्स का एक बड़ा हिस्सा वर्तमान में मॉडल के अन्य महत्वपूर्ण पहलुओं, जैसे कि अंतर्निहित डेटा, प्रशिक्षण पैरामीटर या कोड, को सार्वजनिक नहीं करता है, उन्होंने यह निष्कर्ष निकाला कि अधिकांश मॉडल निश्चित रूप से बंद श्रेणी में आते हैं। स्क्वायर ने कहा, “उस मॉडल को प्रशिक्षित करने का अंतिम परिणाम मॉडल वेट्स द्वारा दर्शाया जाता है। हालांकि, मॉडलिंग में इससे कहीं अधिक चीजें शामिल होती हैं।” मोज़िला टेक्नोलॉजीज की विश्वव्यापी नीति की उपाध्यक्ष लिंडा ग्रिफिन के अनुसार, भले ही कृत्रिम बुद्धिमत्ता मॉडल खुले बनाम बंद के द्वंद्व में मौजूद न हों, लेकिन वे पारिस्थितिकी तंत्र जिनमें वे निर्मित होते हैं, इस द्वंद्व में विभाजित होते हैं।

उन्होंने इस बात पर ज़ोर दिया कि कृत्रिम बुद्धिमत्ता के मामले में भी आज ऐसी ही स्थिति है, जहाँ मुट्ठी भर कंपनियाँ – मुख्य रूप से वे कंपनियाँ जो ब्राउज़र के स्वामित्व के माध्यम से वेब एक्सेस को नियंत्रित करती हैं और इसलिए जिनके पास ग्राहकों के विशाल डेटा तक पहुँच है – ने एआई स्टैक को अपने नियंत्रण में ले लिया है। उन्होंने यह बात इस ओर इशारा करते हुए कही कि माइक्रोसॉफ्ट जैसी बड़ी कंपनियों द्वारा इसे अपने बुनियादी ढांचे में शामिल करने से पहले इंटरनेट ओपन सोर्स सॉफ़्टवेयर पर बना था।

यूनाइटेड किंगडम

ग्रिफिन के अनुसार, “यूनाइटेड किंगडम की सरकार को इस समय वास्तव में इस बात पर विचार करने की आवश्यकता है कि अधिक खुली पहुंच को प्राप्त करने, वित्त पोषण करने, समर्थन देने और प्रोत्साहित करने के लिए हमारी दीर्घकालिक रणनीति क्या है।” ऐसा इसलिए किया जा रहा है ताकि यूनाइटेड किंगडम के व्यवसाय, उद्यमी और व्यक्ति अपनी इच्छानुसार कार्य कर सकें और चुन सकें। क्या आप चाहते हैं कि यूनाइटेड किंगडम की कंपनियां कृत्रिम बुद्धिमत्ता का विकास करें या उसे किराए पर लें? फिलहाल, वे इसे किराए पर ले रही हैं, जो एक ऐसी चिंता है जो लंबे समय तक बनी रहेगी।

टोनी ब्लेयर इंस्टीट्यूट में विज्ञान और प्रौद्योगिकी नीति के प्रमुख जैकब मोकांडर ने कहा कि ओपन सोर्स एक ऐसा “कम आंका गया अवसर” है जिसमें सरकारों और संगठनों को प्रौद्योगिकी से वास्तविक लाभ प्राप्त करने में सहायता करने की क्षमता है। उन्होंने यह भी बताया कि विकास और नवाचार को बढ़ावा देने के मामले में बंद प्रणालियों की तुलना में खुलेपन और ओपन सोर्स पारिस्थितिकी तंत्र कई लाभ प्रदान करते हैं, साथ ही उन्होंने इस तथ्य की ओर भी ध्यान दिलाया कि खुले तरीकों की वर्तमान कमी से गंभीर खतरे भी पैदा होते हैं।

रोवले एडम्स

मोकांदर ने कहा, “ओपन सोर्स का अभाव शायद और भी बड़ा जोखिम है।” “ऐसा इसलिए है क्योंकि इससे सत्ता का अत्यधिक केंद्रीकरण होता है, जो सरकारी संस्थाओं या एक या दो बड़ी प्रौद्योगिकी कंपनियों के हाथों में हो सकता है।” एक मजबूत ओपन इकोसिस्टम का होना महत्वपूर्ण है, चाहे आप इसे विकास या ज्ञान से प्रेरित दृष्टिकोण से देखें या जोखिम से प्रेरित दृष्टिकोण से। ओपन सोर्स और आर्टिफिशियल इंटेलिजेंस एश्योरेंस के बीच संबंध के बारे में बात करते हुए, एथिकएआई के प्रमुख इंजीनियर रॉली एडम्स ने कहा कि ओपन सोर्स बंद तरीकों की तुलना में डेवलपर्स द्वारा किए गए दावों की अधिक गहन जांच को सक्षम बनाता है। उन्होंने आगे कहा, “आश्वासन के दृष्टिकोण से सत्यापनशीलता स्पष्ट रूप से महत्वपूर्ण है, जो बंद मॉडलों के साथ असंभव है, जहां हर बिंदु पर डेवलपर्स की बात को लगभग विश्वास के आधार पर लिया जाता है।” “सत्यापनशीलता आश्वासन का एक महत्वपूर्ण पहलू है।” ओपन-सोर्स मॉडल का उपयोग करने के लाभों में से एक यह है कि वे आपको कठोर और व्यापक तरीके से जांच, प्रयोग और मूल्यांकन करने की अनुमति देते हैं।

कंप्यूटर वीकली ने यह सवाल उठाया कि क्या सरकारों को कृत्रिम बुद्धिमत्ता प्रणाली को विभाजित करने के लिए नए एंटीट्रस्ट कानून पर विचार करना चाहिए। इस सवाल के जवाब में वक्ताओं ने कहा कि इस क्षेत्र में बाजारों की संरचना को समझना अत्यंत आवश्यक है। इसका कारण यह है कि कुछ ही कंपनियों द्वारा अंतर्निहित बुनियादी ढांचे तक पहुंच को नियंत्रित करने के परिणामस्वरूप शक्ति और पूंजी का भारी केंद्रीकरण होता है।

कृत्रिम बुद्धिमत्ता (एआई)

उदाहरण के तौर पर, ग्रिफिन ने कहा है कि सरकार को “दीर्घकालिक परिदृश्य योजना” बनाने की आवश्यकता है, जिसमें आवश्यकता पड़ने पर बाज़ार में हस्तक्षेप की संभावना को ध्यान में रखा जाए। मोकांदर के अनुसार, कृत्रिम बुद्धिमत्ता की बढ़ती क्षमताओं को अविश्वास-विरोधी नीतियों और बाज़ार विविधता पर नए सिरे से सोचने के साथ-साथ आगे बढ़ाना होगा। उन्होंने यह भी कहा कि “ऐसी कंपनियों पर निर्भरता न रखना आवश्यक है जिनका उपयोग सरकार और लोकतांत्रिक हितों के विरुद्ध हथियार के रूप में किया जा सके।” उनके अनुसार, “इसका यह अर्थ नहीं है कि उन्हें निजी स्वामित्व को रोकना ही होगा,” बल्कि महत्वपूर्ण यह है कि आप इस तरह के बुनियादी ढांचे का प्रबंधन किन परिस्थितियों में करते हैं।

निरंतर आश्वासन की आवश्यकता यूनाइटेड किंगडम में कृत्रिम बुद्धिमत्ता (एआई) आश्वासन की वर्तमान स्थिति पर एक अलग पैनल चर्चा के दौरान, एडवाई में एआई नैतिकता और आश्वासन की प्रमुख, माइकला कोएत्सी ने यह टिप्पणी की कि एआई प्रणालियों की गतिशील प्रकृति के कारण, आश्वासन एक बार का अभ्यास नहीं है, बल्कि इसके लिए निरंतर निगरानी और समीक्षा की आवश्यकता है।

डेटा साइंस और आर्टिफिशियल इंटेलिजेंस विभाग

उन्होंने कहा, “क्योंकि कृत्रिम बुद्धिमत्ता एक सामाजिक-तकनीकी प्रयास है, इसलिए हमें कई क्षेत्रों में प्रतिभा और कौशल की आवश्यकता है। हमें डेवलपर्स, डेटा साइंटिस्ट और मशीन लर्निंग में विशेषज्ञता रखने वाले इंजीनियरों की ज़रूरत है। हमें रेड टीम के ऐसे सदस्यों की ज़रूरत है जो सिस्टम के भीतर कमज़ोरियों को खोजने को अपना मिशन मानते हों। हमें कानूनी नीति, कृत्रिम बुद्धिमत्ता और शासन के विशेषज्ञों की ज़रूरत है। कोई भी व्यक्ति विभिन्न प्रकार की नौकरियों में से चुन सकता है। हालांकि, एआई तैनाती की अत्यधिक प्रासंगिक प्रकृति को देखते हुए, कोएत्सी और अन्य पैनलिस्टों ने यह स्पष्ट कर दिया कि वर्तमान स्थिति में, आश्वासन मानदंडों को सही ढंग से स्थापित करने और सिस्टम के परीक्षण के तरीके को मानकीकृत करने की अभी भी आवश्यकता है। यह एक ऐसा काम है जिसे सफलतापूर्वक करना चुनौतीपूर्ण हो सकता है।”

उदाहरण के लिए, नेशनल फिजिकल लेबोरेटरी में रणनीतिक विकास और डेटा साइंस और आर्टिफिशियल इंटेलिजेंस विभाग की प्रमुख स्टेसी हॉफमैन ने यह टिप्पणी की कि यद्यपि बाजार में बड़ी संख्या में परीक्षण मूल्यांकन उपकरण उपलब्ध हैं या आंतरिक रूप से विकसित किए जा रहे हैं, जो अंततः किसी विशेष प्रणाली की विश्वसनीयता और मजबूती में विश्वास बढ़ाने में सहायता कर सकते हैं, “ऐसा कोई व्यापक ढांचा नहीं है जो यह बताता हो कि ‘अच्छा परीक्षण कैसा दिखता है’।”

यूनाइटेड किंगडम में एआई आश्वासन पारिस्थितिकी तंत्र

इस तथ्य पर प्रकाश डालते हुए कि आश्वासन तकनीकें अभी भी इस बात की जानकारी दे सकती हैं कि कोई सिस्टम योजना के अनुसार काम कर रहा है या नहीं या किसी विशेष परिस्थिति में उसमें कितना पूर्वाग्रह है, उन्होंने इस बात पर भी जोर दिया कि कोई भी ऐसी कार्यप्रणाली नहीं है जो सार्वभौमिक रूप से लागू हो। हॉफमैन के अनुसार, “यह बहुत हद तक संदर्भ-विशिष्ट है, इसलिए हमारे पास कभी भी ऐसा कोई एक परीक्षण नहीं होगा जो सभी काल्पनिक स्थितियों के लिए किसी सिस्टम का परीक्षण कर सके। आपको संदर्भ और विशिष्टता के आधार पर परीक्षण के विभिन्न तत्वों को शामिल करने की आवश्यकता होगी,” उन्होंने आगे कहा। औपचारिक नियमों, विनियमों या मानकों के बजाय, कोएत्सी द्वारा प्रौद्योगिकी में उच्च स्तर का विश्वास प्राप्त करने के लिए सुझाई गई एक विधि सीमित परीक्षण पायलट आयोजित करना है जिसमें मॉडल ग्राहक डेटा को ग्रहण करते हैं। इससे संगठनों को खरीद संबंधी कोई भी निर्णय लेने से पहले यह बेहतर ढंग से समझने में मदद मिलती है कि मॉडल व्यवहार में कैसे काम करेंगे।

उन्होंने कहा, “मेरा मानना ​​है कि अब लोगों में इन प्रणालियों से जुड़े जोखिमों के बारे में जागरूकता काफी बढ़ गई है… लेकिन फिर भी हम देखते हैं कि लोग केवल प्रस्तुति के आधार पर ही एआई खरीद लेते हैं।” उन्होंने आगे कहा कि यूनाइटेड किंगडम में युवा एआई आश्वासन प्रणाली में बेहतर सहयोग की भी आवश्यकता है। हमारे लिए मापदंडों पर काम करना जारी रखना आवश्यक है… यह समझना और सहयोग करना भी बहुत अच्छा होगा कि वास्तव में कौन से नियंत्रण और जोखिम कम करने के उपाय कारगर हैं, और उस जानकारी को दूसरों के साथ साझा करना ताकि विभिन्न उद्योगों में अधिक भरोसेमंद प्रणालियाँ विकसित की जा सकें।

डाउनिंग स्ट्रीट

आश्वासन बनाम नियमन: वही पुरानी समस्या। डाउनिंग स्ट्रीट के पूर्व चीफ ऑफ स्टाफ और अब एंथ्रोपिक में नीति, संचार और रणनीति विभाग में कार्यरत लियाम बूथ ने कहा कि हालांकि उनकी जैसी वैश्विक कंपनियां कृत्रिम बुद्धिमत्ता के नियमन के लिए “सर्वोत्तम सामान्यीकरण” दृष्टिकोण को प्राथमिकता देंगी – जिसमें वैश्विक कंपनियां विभिन्न नियमों वाले अधिकार क्षेत्रों में अनुपालन सुनिश्चित करने के लिए यथासंभव सख्त नियामक मानकों का पालन करती हैं – लेकिन यूनाइटेड किंगडम को इस तकनीक की क्षमताओं या इसके विकास के बारे में पूरी समझ होने से पहले “नियमन की ओर जल्दबाजी नहीं करनी चाहिए”। बूथ पिछले एक वर्ष में डिजिटल नैतिकता पर हुई चर्चा के विकास के बारे में बात कर रहे थे।

उन्होंने कहा, “सैंडबॉक्स के प्रति बेहद परिपक्व दृष्टिकोण, नवाचार और नियामकीय बदलावों के प्रति खुले रवैये जैसी बातों के कारण, यूनाइटेड किंगडम प्रयोग करने, तैनाती करने और परीक्षण करने के लिए दुनिया का सबसे अच्छा स्थान हो सकता है।” उन्होंने आगे कहा कि हालांकि कृत्रिम बुद्धिमत्ता के लिए एक सुरक्षा तंत्र बनाने पर यूनाइटेड किंगडम सरकार का ध्यान केंद्रित करना एक सकारात्मक कदम है, लेकिन जब तक देश इसके प्रसार और तैनाती को गति नहीं देता, तब तक वह इस तकनीक में विश्व का अग्रणी नहीं बन पाएगा।

वाणिज्यिक उत्पाद

बूथ के अनुसार, “यदि प्रौद्योगिकी का उपयोग करने वाले और आश्वासन उत्पाद खरीदने के इच्छुक व्यक्ति नहीं हैं, तो आप नियामक या वाणिज्यिक उत्पाद पक्ष से विश्व-अग्रणी आश्वासन बाजार नहीं बना पाएंगे।” यह बात बाजार को वाणिज्यिक या नियामक दोनों दृष्टिकोणों से देखने पर सत्य है। दूसरी ओर, उन्होंने कहा कि आश्वासन पारिस्थितिकी तंत्र का विस्तार प्रौद्योगिकी में विश्वास बढ़ाने के लिए लाभकारी हो सकता है, क्योंकि इससे सार्वजनिक और वाणिज्यिक दोनों क्षेत्रों को प्रौद्योगिकी के उपयोग में अधिक आत्मविश्वास मिलेगा।

बूथ ने कहा, “ऐसी दुनिया में जहां आप डेटा सेंटर की राजधानी नहीं हैं, या आपके देश में कोई अग्रणी मॉडल प्रदाता मौजूद नहीं है, आपको लगातार नवाचार करते रहना होगा और वैश्विक स्तर पर अपनी प्रासंगिकता के बारे में सोचना होगा, और आपको हर कुछ वर्षों में खुद को नए सिरे से गढ़ना होगा। इस दुनिया में, आपको लगातार खुद को नए रूप में ढालना होगा।”

एक पल के लिए पीछे हटकर देखें

दरअसल, एडा लवलेस इंस्टीट्यूट की प्रमुख गाइया मार्कस का मानना ​​है कि आश्वासन पर गहराई से चर्चा करना उत्साहजनक है, लेकिन “हमें एक बड़ा कदम पीछे हटना होगा” और यह सुनिश्चित करना होगा कि प्रौद्योगिकी को विनियमित किया जाए, तभी हम इस पर भरोसा स्थापित कर सकते हैं। उन्होंने तर्क दिया कि शिक्षा, पुलिसिंग या रोजगार जैसे क्षेत्रों में कृत्रिम बुद्धिमत्ता (एआई) के उपयोग के संबंध में कोई वास्तविक क्षेत्र-विशिष्ट नियम नहीं हैं। उन्होंने जुलाई 2023 में किए गए यूके एआई विनियमन के एडा के ऑडिट की ओर ध्यान दिलाया। ऑडिट में पाया गया कि एआई के उपयोग के मामले में अर्थव्यवस्था के “बड़े हिस्से” या तो अनियमित हैं या केवल आंशिक रूप से विनियमित हैं।

निष्कर्ष

मार्कस ने आगे कहा कि विभिन्न प्रकार की तैनाती परिस्थितियों में “अच्छा क्या होता है” यह निर्धारित करने के लिए आश्वासन मानदंड स्थापित करने का एकमात्र तरीका उचित कानून लागू करना है। उन्होंने कहा, “उत्कृष्टता का मूल अर्थ समझना आवश्यक है… यदि आपके पास एक ऐसा आश्वासन तंत्र है जिसमें व्यक्ति यह तय कर रहे हैं कि वे किसके विरुद्ध आश्वासन दे रहे हैं, तो आप सेब, संतरे और जोड़ों की तुलना कर रहे हैं।” मार्कस ने आगे कहा कि कृत्रिम बुद्धिमत्ता प्रौद्योगिकी के चारों ओर फैले अंतहीन प्रचार और “भ्रांतियों” के कारण, हमें प्रौद्योगिकी की दक्षता और अंततः यह किन हितों की पूर्ति कर रही है, इस बारे में “बहुत बुनियादी प्रश्न पूछने की आवश्यकता है”। उन्होंने कहा, “हम इस मूलभूत चीज़ में चूक रहे हैं, जो कि मापन और मूल्यांकन है, और डेटा-संचालित और कृत्रिम बुद्धिमत्ता प्रौद्योगिकियों को उसी मानक पर नहीं परखना है जिस पर आप किसी अन्य प्रौद्योगिकी को परखते हैं।”