New
IAS Foundation New Batch, Starting from 27th Aug 2024, 06:30 PM | Optional Subject History / Geography | Call: 9555124124

जनरेटिव ए.आई. के नैतिक निहितार्थ

मुख्य परीक्षा

(सामान्य अध्ययन प्रश्नपत्र-4 : नीतिशास्त्र, सत्यनिष्ठा एवं अभिरुचि)

संदर्भ

जनरेटिव एआई तकनीक, स्वास्थ्य सेवा, मनोरंजन एवं वित्त सहित विभिन्न उद्योगों में तेजी से विकसित होने वाला क्षेत्र है। वर्तमान में माइक्रोसॉफ्ट, गूगल, फेसबुक व अन्य शीर्ष प्रौद्योगिकी कंपनियाँ एआई नवाचारों को गति देने की दिशा में जनरेटिव एआई का उपयोग कर रही हैं। हालाँकि, इसके उपयोग ने अनेक नैतिक चिंताओं को भी उजागर किया है जिन पर विचार करना आवश्यक है।   

जनरेटिव एआई के बारे में 

  • जनरेटिव एआई एक व्यापक शब्द है जिसका उपयोग किसी भी प्रकार की कृत्रिम बुद्धिमता का वर्णन करने के लिए किया जाता है, जो नई डिजिटल छवियां, वीडियो, ऑडियो, टेक्स्ट या कोड के लिए मशीन लर्निंग एल्गोरिदम का उपयोग करता है।
  • यह एक बड़े डेटासेट पर एक मॉडल को प्रशिक्षित करके कार्य करता है और फिर उस मॉडल का उपयोग नई सामग्री उत्पन्न करने के लिए करता है जो प्रशिक्षण डाटा के समान होती है। यह न्यूरल मशीन ट्रांसलेशन, छवि निर्माण एवं संगीत निर्माण जैसी तकनीकों के माध्यम से किया जा सकता है। 

जनरेटिव एआई से जुड़ी नैतिक चिंताएं 

  • सटीकता : कंपनियाँ जनरेटिव AI मॉडल को प्रशिक्षित करने के लिए उपयोग किए जाने वाले डाटा का खुलासा प्राय: नहीं करती हैं। चूंकि AI मॉडल कभी-कभी गलत व पुरानी जानकारी भी प्रदान करते हैं।
    • ऐसे में जनरेटिव AI की सामग्री को विश्वसनीय व भरोसेमंद सूचना स्रोत के रूप में इस्तेमाल नहीं किया जा सकता है।
    • उदाहरण के लिए, ChatGPT कभी-कभी ऐसे स्रोतों के लिए उद्धरण बनाता है जो मौजूद नहीं होते हैं।
  • गोपनीयता एवं डाटा सुरक्षा : जनरेटिव AI लार्ज लैंग्वेज मॉडल (LLM) को डाटा सेट पर प्रशिक्षित किया जाता है, जिसमें कभी-कभी व्यक्तियों के बारे में व्यक्तिगत रूप से पहचान योग्य जानकारी (PII) शामिल होती है। 
    • इस डाटा का अनधिकृत उपयोग या बेहद सटीक सिंथेटिक प्रोफाइल तैयार करना एक महत्वपूर्ण चिंता का विषय है।
  • पर्यावरणीय प्रभाव : जनरेटिव AI मॉडल बनाने, प्रशिक्षण देने और उपयोग करने के लिए अत्यधिक ऊर्जा की आवश्यकता होती है जिससे कार्बन उत्सर्जन में वृद्धि होती है। हालाँकि, शोधकर्ताओं एवं कंपनियों द्वारा जनरेटिव AI को अधिक टिकाऊ बनाने के विभिन्न तरीकों पर विचार किया जा रहा है । 
  • संवेदनशील जानकारी का खुलासा : जनरेटिव एआई जानकारियों को अधिक सुलभ बना रहा है। यह किसी चिकित्सा शोधकर्ता द्वारा अनजाने में संवेदनशील रोगी की जानकारी का खुलासा होने या किसी उपभोक्ता ब्रांड द्वारा अनजाने में अपनी उत्पाद रणनीति के उजागर होने की संभावना को प्रदर्शित करता है। 
    • ऐसी अनपेक्षित घटनाओं के परिणामस्वरूप रोगी, ग्राहक व लोगों का विश्वास टूटने के साथ-साथ इसके कानूनी पहलू भी हो सकते हैं। 
  • हानिकारक सामग्री का वितरण : जनरेटिव AI प्रणाली मनुष्यों द्वारा दिए गए टेक्स्ट प्रॉम्प्ट के आधार पर स्वचालित रूप से सामग्री निर्मित कर सकते हैं। ये प्रणाली उत्पादकता में अत्यधिक बदलाव भी कर सकते हैं जिससे कई बार जानबूझकर या अनजाने में इनका प्रयोग नुकसान पहुंचाने के लिए भी किया जा सकता है। 
    • उदाहरण के लिए, किसी कंपनी की ओर से भेजे गए AI-जनरेटेड ईमेल में आपत्तिजनक भाषा हो सकती है या कर्मचारियों को गलत मार्गदर्शन जारी कर सकती है। 
  • डीपफेक : जनरेटिव एआई की सामग्री निर्माण की क्षमता वास्तविक एवं कृत्रिम के बीच के अंतर को धुंधला कर देती है, जो चिंताजनक है। कृत्रिम समाचार से लेकर आपतिजनक वीडियो तक ये सार्वजनिक धारणा को विकृत कर सकती हैं तथा दुष्प्रचार को बढ़ावा दे सकती हैं। 
  • पक्षपातपूर्ण परिणाम : जनरेटिव AI मॉडल फीड किए गए डाटा पर काम करते हैं। यदि यह डाटा सांस्कृतिक, सामाजिक, आर्थिक व राजनीतिक रूप से पक्षपाती है, तो जनरेटिव AI मॉडल गलत आउटपुट दे सकता है जोकि नस्लीय, सांप्रदायिक, वित्तीय या राजनीतिक पूर्वाग्रह का कारण बन सकता है।
  • हानिकारक सामग्री का निर्माण : यदि कोई व्यक्ति अनैतिक सामग्री के लिए इसका दुरुपयोग करता है तो कुछ भी आसानी से बनाया जा सकता है। ऐसी अनैतिक सामग्री समाज को नुकसान पहुँचा सकती हैं।
  • गलत सूचना : जनरेटिव AI मॉडल को विभिन्न स्रोतों से डाटासेट पर प्रशिक्षित किया जाता है जिसमें त्रुटियाँ संभव हैं। ऐसे मामलों में ये मॉडल तथ्यात्मक रूप से गलत जानकारी उत्पन्न कर सकते हैं।
  • कॉपीराइट उल्लंघन : जनरेटिव एआई को कई अज्ञात स्रोतों से प्रशिक्षित किया जाता है, इसलिए डाटा उल्लंघन की संभावना अधिक होती है। यह अंततः कॉपीराइट उल्लंघन का कारण बन सकता है जिससे कानूनी चिंताएं पैदा होती हैं। साथ ही, जनरेटिव AI विभिन्न अधिकार प्रबंधन के लिए जटिल चुनौतियाँ प्रस्तुत करता है। 
    • उदाहरण के लिए, कलाकारों व लेखकों की सामग्री का उपयोग जनरेटिव AI को प्रशिक्षित करने के लिए किया गया है। 
  • मानव कार्यबल का प्रतिस्थापन : जनरेटिव एआई की बढ़ती क्षमता को किसी मानव द्वारा हासिल नहीं किया जा सकता है। हालांकि, यह लागत कटौती और समय प्रबंधन के मामले में अत्यधिक लाभदायक हो सकता है किंतु इससे कार्यबल की मांग प्रभावित हो सकती है।
  • विनियामक अनुपालन : जनरेटिव AI मॉडल कभी-कभी सामान्य डाटा संरक्षण विनियमन (GDPR) जैसे नियमों का पालन नहीं करते हैं। ये उपकरण संवेदनशील जानकारी के बारे में गोपनीयता बनाए रखने में विफल हो सकते हैं जो व्यक्तिगत और राष्ट्रीय हित के खिलाफ हो सकता है।

सुझाव 

  • संवेदनशील जानकारी के मामले में संरक्षित डाटा व आईपी की सुरक्षा के लिए स्पष्ट दिशा-निर्देश, शासन एवं प्रभावी संचार स्थापित करना 
  • गोपनीयता के लिए भाषा मॉडल में PII (Personally Identifiable Information) को अंतर्निहित न करना और गोपनीयता कानूनों के अनुपालन में इन मॉडलों से PII को आसानी से हटा सकना
  • इसके आलावा 'राइट टू फॉरगेट' फीचर की आवश्यकता पर जोर देना 
  • आउटपुट की गुणवत्ता में वृद्धि के लिए गुणवत्तापूर्ण डाटा पर ध्यान केंद्रित करने की आवश्यकता
  • एआई की सीमाओं, विषम डाटा से होने वाले अनपेक्षित पूर्वाग्रहों और इन मॉडलों का निर्माण करने वालों के पूर्वाग्रहों को समझने पर भी जोर देना 
  • एआई सिस्टम के स्वामित्व, निर्माण व रखरखाव करने वाली संस्थाओं एवं प्रौद्योगिकी टीमों को उत्तरदायी बनाना 
  • नैतिक व आर्थिक जवाबदेही निर्धारित करने के लिए एआई एवं ज्ञान प्रबंधन के आसपास प्रथाओं का मानकीकरण 
  • गोपनीयता, सहमति एवं डाटा गुणवत्ता जैसे डाटा कानून सिद्धांतों के पालन के लिए स्पष्ट व पारदर्शी नीतियां सुनिश्चित करना
Have any Query?

Our support team will be happy to assist you!

OR
X