Uncategorized

आर्टिफ़िशियल इंटेलिजेंस से बनी तस्वीरें किस तरह बच्चों के यौन शोषण का ख़तरा बढ़ा रही हैं?

बच्चों के लिए काम करने वाला एक अंतरराष्ट्रीय संगठन इंटरनेट वॉच फाउंडेशन (आईडब्ल्यूएफ) जल्द ही ब्रिटेन के प्रधानमंत्री ऋषि सुनक से मिलेगा.

संगठन का कहना है कि आर्टिफ़िशियल इंटेलिजेंस के ज़रिये बच्चों की अश्लील तस्वीर बना कर उनके यौन शोषण के मामले बढ़ रहे हैं.संगठन इसे ख़त्म करने में सरकार से मदद लेना चाहता है.इंटरनेट वॉच फाउंडेशन (आईडब्ल्यूएफ) इंटरनेट से आपत्तिजनक कॉन्टेंट को हटाता है. इसका कहना है कि अब इंटरनेट पर आर्टिफिशियल इंटेलिजेंस (एआई) से तैयार तस्वीरों की बाढ़ आ रही है. पिछले महीने इंटरनेट वॉच फाउंडेशन ने पहली बार इन तस्वीरों पर नज़र रखना शुरू किया। संस्था ने पाया कि इस काम में लगे लोग आर्टिफिशियल इंटेलिजेंस से बनी तस्वीरों की गैलरी बना कर इंटरनेट पर शेयर कर रहे हैं.इंटरनेट वॉच फाउंडेशन की सीईओ सुज़ी हरग्रीव्स कहती हैं, “हमें अभी तो बहुत ज़्यादा ऐसी तस्वीरें नहीं दिख रही हैं लेकिन इस बात की प्रबल आशंका है कि इस तरह के अपराधी बहुत बड़ी संख्या में बच्चों के यौन शोषण से जुड़ी तस्वीरें बना कर इंटरनेट पर डाल सकते हैं.’’

AI.jpg | World Meteorological Organization

एक तरह का नया ख़तरा

बीबीसी को इस तरह की तकनीक से बनाई गई कुछ तस्वीरें दिखाई गईं. इनमें कुछ ऐसी तस्वीरें थीं, जिनमें पांच साल की बच्चियों को सेक्शुअल-पोज़िशन में दिखाया गया है.इंटरनेट वॉच फाउंडेशन दुनिया के उन तीन चैरिटी संगठनों में से एक है, जिसे इंटरनेट पर बच्चों के यौन शोषण से जुड़े कॉन्टेंट को मॉनिटर करने का लाइसेंस मिला हुआ है.इंटरनेट वॉच फाउंडेशन ने आर्टिफिशियल इंटेलिजेंस से जुड़ी तस्वीरों को 24 मई से तलाशना शुरू किया था और 30 जून तक विश्लेषकों ने 29 वेबसाइटों को खंगाल लिया था.इस दौरान उसने ऐसे सात पेज तलाश लिए थे जो आर्टिफ़िशियल इंटेलिजेंस से बनाई गई तस्वीरों की गैलरी शेयर कर रहा था.इंटरनेट वॉच फाउंडेशन ने ये तो ठीक ठीक नहीं बताया कि इनमें कितनी ऐसी तस्वीरें थीं, लेकिन ये ज़रूर बताया कि ऐसी दर्जनों तस्वीरें अवैध वेबसाइटें शेयर करती हैं.एक्सपर्ट्स इन तस्वीरों में कुछ को ए कैटिगरी में रखते हैं. ये वैसी तस्वीरें होती हैं, जिनमें साफ़ तौर पर बच्चों के साथ सेक्स करते दिखाया जाता है.लगभग हर देश में बच्चों के यौन शोषण की तस्वीरें बनाना ग़ैर-क़ानूनी है.

इंटरनेट वॉच फ़ाउंडेशन की कोशिश

हरग्रीव्स कहती हैं, ’’हमारे पास अभी इस उभरती टेक्नॉलजी से आगे निकलने का मौक़ा है. लेकिन क़ानून को इस पहलू पर ध्यान देना होगा. हमारे क़ानून को इस नई चुनौती से निपटने के लिए तैयार होना होगा.’’जून में ब्रिटेन के प्रधानमंत्री सुनक ने एलान किया था कि उनका देश आर्टिफिशियल इंटेलिजेंस सुरक्षा का दुनिया का पहला सम्मेलन करेगा.ब्रिटिश सरकार ने वादा किया था कि वह इस मंच पर दुनिया भर के विशेषज्ञों और वैश्विक नेताओं को बुलाएंगे ताकि इस बात पर विचार-विमर्श किया जा सके कि किस तरह से मिलजुल कर इस समस्या से निपटा जाए.इंटरनेट वॉच फाउंडेशन के विश्लेषकों ने यौन शोषण से जुड़ी इस तरह की ‘सेल्फ जेनरेटेड’ तस्वीरों को लेकर एक ट्रेंड देखा है. इसमें बच्चे को मजबूर कर अपनी तस्वीरें उन लोगों तक भेजने का दबाव डाला जाता था जो उनका दुरुपयोग करते हैं.इंटरनेट वॉच फाउंडेशन इस बात को लेकर चिंतित है कि आर्टिफ़िशियल इंटेलिजेंस का ट्रेंड बढ़ता ही जा रहा है. हालांकि इनकी तादाद अभी कम है.

आर्टिफिशियल इंटेलिजेंस का कैसे इस्तेमाल हो रहा है?

2022 में इंटरनेट वॉच फाउंडेशन ने लॉग कर कम से कम ढाई लाख वैसे वेब पेज को हटाने की कोशिश थी, जिनमें बच्चों के यौन शोषण से जुड़ी तस्वीरें थीं.विश्लेषकों का कहना है बच्चों का शिकार करने वाले ऐसे अपराधियों की बातचीत तक रिकॉर्ड किया गया था जिसमें ये बताया जा रहा था कि बच्चों की ज्यादा जीवंत तस्वीरें कैसे बनाई जाए.संगठन ने पाया कि ये लोग इस बात पर विचार कर रहे थे कि तस्वीरें बनाने में आर्टिफिशियल इंटेलिजेंस का इस्तेमाल कैसे किया जाए.कहां से ओपन-सोर्स आर्टिफिशयल इंटेलिजेंस मॉडल्स डाउनलोड किया और सेफ्टी बैरियर को कैसे हटाया जाए.ज्यादातर एआई जेनरेटरों में यूजर्स के लिए कॉन्टेंट बनाने को लेकर नियम होते हैं. नियम कहते हैं कि प्रतिबंधित शब्दों या वाक्याशों का इ कॉन्टेंट नहीं बनाया जा सकता है.लेकिन ओपन सोर्स टूल्स मुफ्त में डाउनलोड किए जा सकते हैं. यूज़र चाहे तो हेरफेर कर ऐसी तस्वीरें बना सकता है जो नियमों को विपरीत हों.सबसे लोकप्रिय सोर्स स्टेबल डिफ्यूजन है. जर्मन एआई एकेडेमिक्स की एक टीम ने अगस्त 2022 में इसे ऑनलाइन रिलीज किया था.

पूरी दुनिया के बच्चों के सामने एक नया डर

बीबीसी ने एक ऐसे एआई इमेज मेकर से बात की जो किशोर उम्र से छोटी बच्चियों की सेक्शुलाइज्ड तस्वीरें बनाने के लिए स्टेबल डिफ्यूजन का इस्तेमाल करता है.इस जापानी शख्स ने दावा किया कि उसकी बनाई हुई तस्वीरें ‘क्यूट’ और सही हैं. उसका कहना था कि पहली बार इतिहास में बच्चों को यौन शोषण किए बगैर उनकी तस्वीरें बनाई जा सकती हैं.हालांकि विशेषेज्ञों का कहना है कि इन तस्वीरों के गंभीर ख़तरे हो सकते हैं.अमेरिका की माशर्ल्स सेवाओं के लिए यौन अपराध और बच्चों के यौन शोषण को रोकने वाले विभाग में काम करने वाले डॉ. माइकल बॉर्क कहते हैं, ‘’ मुझे इस बात को लेकर कोई संदेह नहीं है कि एआई से बनाई तस्वीरों से पूरी दुनिया में बच्चों के लिए एक नया ख़तरा पैदा हो गया है.’’स्टेबल डिफ्यूजन के लीड डिवेलपर्स में से एक प्रोफेसर ब्योर्न ओमर ने ओपन सोर्स का बचाव किया है.उन्होने बीबीसी से कहा कि इसकी बदौलत सैकड़ों एकेडेमिक रिसर्च प्रोजेक्ट पूरे हो पाए. इससे कई कारोबार भी पैदा हुए हैं.ओमर कहते हैं इस क्षेत्र में रिसर्च और नई चीजें डिवेलप करने के काम को नहीं रोका जाना चाहिए.उन्होंने कहा,‘’हमें इस सच का सामना करना होगा कि इसका (एआई) पूरी दुनिया में विकास हो रहा है. यहां रोक दिए जाने से उन देशों में इसका विकास नहीं रुक जाएगा, जहां लोकतंत्र नहीं है. हमें इसके ज़रिये हो रही बुरी गतिविधियों को रोकने की कोशिश करनी चाहिए.’’.मॉडल प्री लॉन्च को डिवेलप करने में पैसा लगाने वाली कंपनी स्टेबिलिटी एआई स्टेबल डिफ्यूजन के नए वर्जन तैयार करने वाली प्रमुख कंपनियों में शुमार है.कंपनी ने बीबीसी से इस मुद्दे पर बात करने से इनकार कर दिया. लेकिन इससे पहले उसने एक बयान में कहा था कि वो गैरक़ानूनी और अनैतिक काम में एआई के अपने वर्जन के इस्तेमाल पर रोक लगाती है.

Related Articles

प्रातिक्रिया दे

आपका ईमेल पता प्रकाशित नहीं किया जाएगा. आवश्यक फ़ील्ड चिह्नित हैं *

Check Also
Close
Back to top button