जेनेरेटिभ एआईको सम्बन्धमा डाटा गोपनीयतामा चिन्ता बढेको छ, डेलोइटको नयाँ रिपोर्टले फेला पारेको छ। जबकि गत वर्ष केवल 22% पेशेवरहरूले यसलाई आफ्नो शीर्ष तीन सरोकारहरूमा स्थान दिएका थिए, यो वर्ष यो संख्या बढेर 72% पुगेको छ।
अर्को उच्चतम नैतिक GenAI चिन्ताहरू पारदर्शिता र डाटा प्रोभेन्सन्स थिए, 47% र 40% पेशेवरहरूले उनीहरूलाई यस वर्ष उनीहरूको शीर्ष तीनमा स्थान दिए। यसैबीच, केवल 16%ले रोजगारी विस्थापनको बारेमा चिन्ता व्यक्त गरे।
एआई टेक्नोलोजीले कसरी काम गर्छ, विशेष गरी संवेदनशील डाटाको सन्दर्भमा कर्मचारीहरू बढी उत्सुक हुँदैछन्। ह्याकरवन द्वारा सेप्टेम्बरमा गरिएको अध्ययनले पत्ता लगायो कि लगभग आधा सुरक्षा पेशेवरहरूले एआई जोखिमपूर्ण छ भन्ने विश्वास गर्छन्, धेरैले लीक गरिएको प्रशिक्षण डेटालाई खतराको रूपमा हेर्छन्।
त्यसैगरी, 78% व्यवसायी नेताहरूले “सुरक्षित र सुरक्षित” लाई उनीहरूको शीर्ष तीन नैतिक प्रविधि सिद्धान्तहरू मध्ये एकको रूपमा दर्जा दिए, 2023 बाट 37% बृद्धि गर्दै, सुरक्षाको मुद्दा कसरी दिमागमा शीर्ष छ भनेर प्रदर्शन गर्दै।
सर्वेक्षणको नतिजा डेलोइटको 2024 बाट आएको हो “प्रविधिमा नैतिकता र विश्वासको अवस्थारिपोर्ट, जसले प्रविधिहरूमा लागू हुने नैतिक सिद्धान्तहरू, विशेष गरी GenAI बारे विश्वव्यापी रूपमा 1,800 भन्दा बढी व्यवसाय र प्राविधिक पेशेवरहरूको सर्वेक्षण गरेको थियो।
हाई-प्रोफाइल एआई सुरक्षा घटनाहरूले सम्भवतः अधिक ध्यान आकर्षित गरिरहेको छ
यस वर्षको उत्तरदाताहरूको आधा भन्दा बढी र गत वर्षको AI र GenAI जस्ता संज्ञानात्मक प्रविधिहरूले भर्चुअल रियालिटी, क्वान्टम कम्प्युटिङ, स्वायत्त सवारी साधन र रोबोटिक्स जस्ता अन्य उदीयमान प्रविधिहरूको तुलनामा सबैभन्दा ठूलो नैतिक जोखिम खडा गरेको छ।
यो नयाँ फोकस राम्रो-प्रचारित घटनाहरूको कारण डाटा सुरक्षाको महत्त्वको व्यापक जागरूकतासँग सम्बन्धित हुन सक्छ, जस्तै जब OpenAI को ChatGPT मा बग च्याटजीपीटी प्लस सदस्यहरूको करिब १.२% को व्यक्तिगत डेटा उजागर गरियोनाम, इमेल, र आंशिक भुक्तानी विवरणहरू सहित।
ह्याकरहरूले ओपनएआईका कर्मचारीहरूले प्रयोग गरेको अनलाइन फोरमको उल्लङ्घन गरेको र फर्मको एआई प्रणालीहरूको गोप्य जानकारी चोरेको समाचारले च्याटबटमाथिको विश्वास पनि पक्कै घटेको थियो।
हेर्नुहोस्: कृत्रिम बुद्धिमत्ता नैतिकता नीति
“व्यापक उपलब्धता र GenAI को अवलम्बनले टेक्नोलोजीमा उत्तरदाताहरूको परिचितता र विश्वास बढाएको हुन सक्छ, जसले राम्रोको लागि यसको सम्भावनाको बारेमा आशावादी बनाउँछ,” बीना अम्मानाथ, ग्लोबल डेलोइट एआई संस्थान र विश्वसनीय एआई नेता, एक मा भनिन्। प्रेस विज्ञप्ति।
“यसको स्पष्ट जोखिमको वरिपरि निरन्तर सावधानीपूर्ण भावनाहरूले सकारात्मक प्रभावलाई सक्षम पार्ने विशिष्ट, विकसित नैतिक ढाँचाको आवश्यकतालाई जोड दिन्छ।”
एआई कानूनले संगठनहरूले विश्वव्यापी रूपमा काम गर्ने तरिकालाई असर गरिरहेको छ
स्वाभाविक रूपमा, धेरै कर्मचारीहरूले गत वर्षको तुलनामा काममा GenAI प्रयोग गरिरहेका छन्, डेलोइटको वर्ष-दर-वर्ष रिपोर्टहरूमा 20% ले आन्तरिक रूपमा प्रयोग भएको रिपोर्ट गर्ने पेशेवरहरूको प्रतिशत।
एक विशाल 94% ले भने कि तिनीहरूका कम्पनीहरूले यसलाई कुनै न कुनै तरिकामा प्रक्रियामा राखेका छन्। यद्यपि, धेरैले संकेत गरे कि यो अझै पाइलट चरणमा छ वा प्रयोग सीमित छ, केवल 12% ले यो व्यापक प्रयोगमा छ भने। यो भर्खरको गार्टनर अनुसन्धानसँग पङ्क्तिबद्ध छ कि धेरै जसो GenAI परियोजनाहरूले यसलाई अवधारणाको प्रमाण-अवधारणा चरण पार गर्दैनन्।
हेर्नुहोस्: IBM: आर्टिफिसियल इन्टेलिजेन्सको इन्टरप्राइज अपोप्शन बढ्दै जाँदा, बाधाहरूले यसको प्रयोगलाई सीमित गर्दैछन्
यसको व्यापकताको बावजुद, निर्णय निर्माताहरू सुनिश्चित गर्न चाहन्छन् कि तिनीहरूको AI को प्रयोगले तिनीहरूलाई समस्यामा नपरोस्, विशेष गरी जब यो कानूनको कुरा आउँछ। नैतिक प्राविधिक नीतिहरू र दिशानिर्देशहरू ठाउँमा हुनुको लागि उच्चतम मूल्याङ्कन गरिएको कारण अनुपालन थियो, 34% उत्तरदाताहरूले उद्धृत गरे, जबकि नियामक दण्डहरू शीर्ष तीन चिन्ताहरू मध्ये थिए यदि त्यस्ता मापदण्डहरू पालना गरिएन भने।
EU AI ऐन अगस्ट 1 मा लागू भयो र सुरक्षा, पारदर्शिता र नैतिक प्रयोग सुनिश्चित गर्न उच्च जोखिम AI प्रणालीहरूमा कडा आवश्यकताहरू लागू गर्दछ। पालना नगरेमा €35 मिलियन ($38 मिलियन USD) वा विश्वव्यापी कारोबारको 7% देखि €7.5 मिलियन ($8.1 मिलियन USD) वा कारोबारको 1.5% सम्मको जरिवाना हुन सक्छ।
अमेजन, गुगल, माइक्रोसफ्ट र ओपनएआईलगायत सयभन्दा बढी कम्पनीले यसअघि नै हस्ताक्षर गरिसकेका छन् EU AI सम्झौता र कानुनी समयसीमा अगाडि ऐनको आवश्यकताहरू लागू गर्न सुरु गर्न स्वयम्सेवा गरे। यसले दुबै जनतालाई जिम्मेवार एआई डिप्लोइमेन्टमा आफ्नो प्रतिबद्धता देखाउँछ र भविष्यका कानुनी चुनौतीहरूबाट बच्न मद्दत गर्दछ।
त्यसैगरी, अक्टोबर २०२३ मा, अमेरिकाले एआई नवाचार र प्रतिस्पर्धालाई देशभर प्रवर्द्धन गर्दै सरकारी एजेन्सीहरू भित्र सुरक्षा, नागरिक अधिकार र गोपनीयता कायम राख्नका लागि व्यापक दिशानिर्देश प्रस्तुत गर्ने एआई कार्यकारी आदेशको अनावरण गर्यो। यो कानून नभए पनि, धेरै US-सञ्चालन कम्पनीहरूले विकसित संघीय निरीक्षण र AI सुरक्षाको सार्वजनिक अपेक्षाहरूको अनुपालन सुनिश्चित गर्न प्रतिक्रियामा नीति परिवर्तन गर्न सक्छन्।
हेर्नुहोस्: G7 देशहरूले स्वैच्छिक AI आचार संहिता स्थापना गर्छन्
EU AI ऐनले युरोपमा प्रभाव पारेको छ, 34% युरोपेली उत्तरदाताहरूले भनेका छन् कि तिनीहरूका संगठनहरूले प्रतिक्रिया स्वरूप गत वर्षमा AI को प्रयोगमा परिवर्तनहरू गरेका थिए। तथापि, प्रभाव अझ व्यापक छ, किनकि 26% दक्षिण एसियाली उत्तरदाताहरू र 16% उत्तर र दक्षिण अमेरिकी उत्तरदाताहरूले पनि ऐनको किस्ताको कारणले परिवर्तन गरेका छन्।
यसबाहेक, 20% यूएस-आधारित उत्तरदाताहरूले भने कि तिनीहरूले कार्यकारी आदेशको प्रतिक्रियामा आफ्नो संगठनहरूमा परिवर्तनहरू गरेका थिए। दक्षिण एसियाली उत्तरदाताहरूको एक चौथाई, दक्षिण अमेरिकामा २१% र युरोपमा १२% ले उस्तै भन्नुभयो।
“एआई जस्ता संज्ञानात्मक प्रविधिहरू समाजलाई फाइदा पुर्याउने उच्च क्षमता र दुरुपयोगको उच्चतम जोखिम दुवै भएको मानिन्छ,” रिपोर्टका लेखकहरूले लेखे।
“GenAI को द्रुत ग्रहणले टेक्नोलोजीलाई शासन गर्ने संगठनहरूको क्षमतालाई पछाडि पार्न सक्छ। कम्पनीहरूले GenAI को लागि नैतिक मापदण्डहरूको कार्यान्वयन र GenAI उपकरणहरू लागू गरिएका प्रयोगका केसहरूको अर्थपूर्ण चयन दुवैलाई प्राथमिकता दिनुपर्छ।”
