बालबालिकाको क्षेत्रमा काम गर्ने एउटा अग्रणी परोपकारी संस्थाले यूकेका प्रधानमन्त्री ऋषि सुनकलाई एआईबाट निर्माण गरिने बाल यौन दुराचारसम्बन्धी तस्बिरहरूबारे ध्यानाकर्षण गराएको छ।
यूकेले यसै शरद्ऋतुमा एआई सुरक्षाको विषयमा विश्वव्यापी सम्मेलन आयोजना गर्न लागेको छ।
इन्टरनेट वाच फाउन्डेशन (आईडब्ल्यूएफ) ले इन्टरनेटमा भएका यौन दुर्व्यवहारसम्बन्धी सामग्रीहरू हटाउने गर्छ। उसले यसमा एआईमा आधारित तस्बिरहरू बढ्दो क्रममा देखिन थालेको जनाएको छ।
गत महिना आईडब्ल्यूएफले पहिलो पटक एआई तस्बिरहरूको अभिलेख राख्न थालेको थियो।
उसले विश्वभरिका पीडकहरूले बेलाबेलामा वास्तविकजस्ता देखिने तस्बिरका ग्यालरीहरू शेअर गर्ने गरिएको फेला पारेको थियो।
“अहिले हामीले यस्ता तस्बिरहरू ठूलो सङ्ख्यामा देखेका छैनौँ। तर हामी केमा स्पष्ट छौँ भने अपराधीहरूले अभूतपूर्व स्तरमा वास्तविक जस्तै देखिने बाल यौन दुर्व्यवहारका तस्बिरहरू उत्पादन गर्न सक्ने सम्भावना देखिन्छ,” आईडब्ल्यूएफकी प्रमुख कार्यकारी सुसी हार्ग्रीभ्सले भनिन्।
- टिकटकबाट ज्यानै जाने खालका काम किन सिक्छन् बालबालिका
- सामाजिक सञ्जालको साथ पाएपछि हिंसा र दुर्व्यवहारबारे बोल्दै पीडितहरू
बीबीसीलाई निश्चित भाग नदेखिने बनाइएका केही तस्बिरहरू देखाइएको थियो जसमा झन्डै पाँच वर्षजतिका बालिकाहरूलाई निर्वस्त्र भएर यौनासनमा बसेको तस्बिर खिचाए जस्तो देखिन्छ।
किन यस्तो माग

आईडब्ल्यूएफ इन्टरनेटमा बाल यौन दुर्व्यवहारसम्बन्धी सामग्रीको सक्रिय रूपमा खोजी गर्न अनुमति पाएको जम्मा तीनवटा परोपकारी संस्थामध्ये एक हो।
उसले मे २४ बाट एआईका तस्बिरहरूको अभिलेख राख्न थालेको थियो। जुन ३० सम्म विश्लेषणकर्ताहरूले २९ वटा वेबसाइटमाथि अनुसन्धान गरे। उनीहरूले तीमध्ये सात वटाले एआईबाट तयार पारिएका तस्बिरहरू शेअर गरेको पत्ता लगाए।
उक्त परोपकारी संस्थाले तस्बिरहरूको सङ्ख्या खुलाएको छैन तर गैरकानुनी साइटहरूमा दर्जनौँ एआई तस्बिरहरू वास्तविक तस्बिरसँग मिसाएर साझा गरिएको उल्लेख गरेको छ।

- आर्टिफिशल इन्टेलिजन्स के हो७ नोभेम्बर २०२१
- के इन्टरनेट बन्द गर्न सकिन्छ२३ सेप्टेम्बर २०२२
- सबैतिर एआईको जगजगी, तर मानिसले तत्काल गुमाउने छैनन् यी काम२० मई २०२३

त्यहाँ ‘क्याटगोरी ए’ मा पर्ने तस्बिरहरू समेत छन्। उक्त वर्षमा यौन संसर्ग गरेको देखिने तस्बिरहरू पर्छन्। प्रायः सबै देशमा बाल यौन दुर्व्यवहारको तस्बिर लिनु गैरकानुनी हो।
“हामीसँग अहिले देखा परिरहेको प्रविधिभन्दा अगाडि बढ्ने एउटा अवसर छ तर त्यसलाई ध्यान दिएर कानुनबाट सम्बोधन गरिनुपर्छ र त्यसले यो नयाँ जोखिमसँग सङ्घर्ष गर्न पनि सक्नुपर्छ,” हार्ग्रीभ्सले भनिन्।
जुन महिनामा सुनकले एआई सुरक्षाको पहिलो विश्वव्यापी सम्मेलन यूकेले आयोजना गर्ने घोषणा गरेका थिए।
यूके सरकारले विज्ञ र सांसदहरूलाई एक ठाउँमा ल्याएर एआईका जोखिमबारे मन्थन गर्ने वाचा गरेको छ। उक्त सम्मेलनमा कसरी अन्तर्राष्ट्रिय रूपमा संयोजन गरिएका कदमले जोखिमहरू कम गर्न सकिन्छ भन्नेबारे पनि छलफल गर्ने योजना छ।
आईडब्ल्यूएफका विश्लेषकहरूले दुर्व्यवहारसम्बन्धी तस्बिरका प्रवृत्तिहरू पनि अभिलेख राख्ने गरेका छन्। त्यसमा हालै बढेका भनिएका ‘आफैँ सिर्जना गरिएका’ दुर्व्यवहार सामग्री पनि पर्छन् जसमा एउटा बच्चालाई भिडिओ वा तस्बिर पीडकलाई पठाउन बाध्य पार्ने गरिन्छ।
उक्त परोपकारी संस्थाले एआईबाट तस्बिर बनाउने प्रवृत्ति बढेको उल्लेख गर्दै हाल फेला परेका तस्बिर दुर्व्यवहार सामग्रीको एउटा सानो हिस्सामात्रै भएको जनाएको छ।
सन् २०२२ मा आईडब्ल्यूएफले बाल यौन दुर्व्यवहारसम्बन्धी तस्बिर भएका झन्डै २,५०,००० पेजलाई अफलाइन बनाउने प्रयास गरेको थियो।

- ‘मेरो बच्चा असाधारण प्रतिभाको भएको मैले यसरी थाहा पाएँ’२५ डिसेम्बर २०२२
- के बच्चाले गर्भमा नै संस्कार सिक्न सक्छन्?१२ मार्च २०२३
- आमाले गाजर खाँदा गर्भमा रहेका बच्चा’ मुस्कुराउँछन्’, ‘केल’ खाँदा ‘ठुस्किन्छन्’११ डिसेम्बर २०२२

विज्ञहरूले त्यस्ता दुराचारीहरूबीच विभिन्न मञ्चमा भएका वार्तालापलाई पनि अभिलेखमा राखेका छन् दुराचारीहरूले बालबालिकाको जीवन्त देखिने तस्बिर कसरी बनाउने भन्ने उपाय एकअर्कालाई सुझाव दिने गरेको पाइएको छ।
उनीहरूले एआईलाई कसरी दुर्व्यवहारको तस्बिर बनाउन झुक्याउने र कसरी ओपन-सोर्स एआई मोडलहरू डाउनलोड गर्ने र सुरक्षा अवरोधहरूलाई छिचोल्ने भन्ने पनि पत्ता लगाएका छन्।
अधिकांश एआई तस्बिर जेनरेटरहरूका कडा नियमहरू हुन्छन् जसले प्रयोगकर्ताहरूलाई प्रतिबन्धित शब्द वा वाक्यांश प्रयोग गरेर सामग्रीहरू तयार पार्न रोक्छ।
तर ओपन-सोर्स टूलहरू निःशुल्क डाउनलोड गर्न सकिन्छ र तिनलाई प्रयोगकर्ताहरूले जसरी चाह्यो त्यसरी चलाउन सक्छन्।
ओपन-सोर्स एआई

सबैभन्दा लोकप्रिय स्रोत स्टेबल डिफ्यूजन हो। त्यसको कोड सन् २०२२ को अगस्टमा जर्मनीका एआई प्राज्ञहरूले सार्वजनिक गरेका थिए।
बीबीसीले एक एआई तस्बिर निर्मातासँग कुरा गरेको थियो। उनी स्टेबल डिफ्यूजनको ‘स्पेशलाइज्ड भर्सन’को प्रयोग गर्छन् र ११-१२ वर्ष उमेरका बालिकाको तस्बिर बनाउँछन्।
ती जापानी पुरुषले उनका ‘आकर्षक’ तस्बिर औचित्यपूर्ण रहेको दाबी गर्दै “वास्तविक बालबालिकामाथि शोषण नगरी इतिहासमा नै पहिलो पटक तस्बिर बनाउन सकिएको बताए।”
तर विज्ञहरूले ती तस्बिरहरूले गम्भीर हानि पुर्याउने सम्भावना रहेको औँल्याएका छन्।
“मेरो मस्तिष्कमा कुनै दुबिधा छैन कि एआईबाट बनाइएका तस्बिरहरूले त्यसप्रति झुकाव बढाउँछ, विचलनलाई सुदृढ बनाउँछ र यसले विश्वभरिका बालबालिकालाई थप क्षति र जोखिमतर्फ उन्मुख गराउँछ,” यूनाइटेड स्टेट्स मार्शल सर्भिसअन्तर्गत यौन दुराचारी र बाल यौन दुर्व्यवहारकर्ताबारे विज्ञता हासिल गरेका माइकल बर्क भन्छन्।
- वेल्सका विद्यालयमा यौन दुर्व्यवहारको अवस्थाबारे चिन्ता, बालबालिकाहरूलाई नग्न तस्बिर पठाउन दबाव
- भारतमा बाल यौन दुराचार, कति भयावह?
प्राध्यापक ओमर स्टेबल डिफ्यूजनका प्रमुख विकासकर्ता हुन्। उनले त्यसलाई ओपन-सोर्स बनाउने निर्णयको प्रतिरक्षा गरे। कैयौँ प्रगति गरिरहेका व्यवसायसहित सयौँ प्राज्ञ अनुसन्धान परियोजना हालसम्म त्यसका कारण अघि बढेको उनको तर्क छ।
अनुसन्धान वा विकासका काम रोक्नु सही नहुने उनको धारणा छ।
उनले भने, “हामीले यो विश्वव्यापी विकास हो भनेर सामना गर्नुपर्छ। यसलाई यहाँ रोकेर अन्य देशहरू सम्भवतः अलोकतान्त्रिक समाजहरूमा यो प्रविधिलाई रोक्न सकिँदैन। यी विकासक्रमलाई हेरेर हामी तीव्र रूपमा भइरहेका कुराहरूमा कस्ता रोकथामका उपाय अपनाउन सकिन्छ भनेर हेर्न सक्छौँ।”
स्टेबल डिफ्यूजनको नयाँ भर्सन तयार पारिरहेको एउटा प्रमुख कम्पनीमा स्टेबिलिटी एआई पनि पर्छ। उसले अन्तर्वार्ताका लागि गरिएको अनुरोध अस्वीकार गरेको छ।
तर विगतमा उसले आफ्ना एआईका भर्सनहरूको गैरकानुनी वा अनैतिक उद्देश्यमा हुनसक्ने दुरुपयोग निषेधित गरिएको जनाएको थियो।