Friday, November 24, 2023
(आलेख) हर चमकने वाली चीज सोना नहीं होती ! लेखक -स्वराज्य करुण
(आलेख - स्वराज्य करुण )
यह पुरानी कहावत भी है और आज के दौर में हमें यह मानकर भी चलना चाहिए कि जिस तरह हर चमकने वाली चीज सोना नहीं होती ,ठीक उसी तरह ज़रूरी नहीं कि इंटरनेट आधारित सोशल मीडिया और मीडिया के विभिन्न मंचों पर आ रही हर बात खरे सोने की तरह सच हो , जब तक कि उसमें कोई ठोस प्रमाण या ठोस तथ्य न हो।
हर नई तकनीक के अच्छे-बुरे दोनों पहलू होते हैं । उसका उपयोग भी हो सकता है और दुरुपयोग भी। लेकिन जैसा कि समाचारों में देखा , सुना और पढ़ा जा रहा है ,इंटरनेट आधारित ए .आई (आर्टिफिशियल इंटेलिजेंस या कृत्रिम बौद्धिकता) , चैट जीपीटी और अब डीप फेक नामक नई तकनीक ने दुनिया के करोड़ों सोशल मीडिया यूजर्स के सामने एक नया संकट खड़ा कर दिया है। सदुपयोग के बजाय इन नये संचार उपकरणों के दुरुपयोग की चर्चा अधिक हो रही है। कहा जा रहा है कि ये नवीन तकनीकी उपकरण सोशल मीडिया और परम्परागत मीडिया के साथ -साथ मानव समाज में भी विश्वसनीयता का संकट पैदा कर सकते हैं। ताज़ातरीन चर्चा डीप फेक की है।
इन नई तकनीकों में प्रशिक्षित कोई भी इंसान इनके जरिए समाज को भ्रमित कर सकता है। इन नवीन तकनीकों के क्या -क्या फायदे हो सकते हैं , यह स्पष्ट नहीं है ,हो सकता है कि कुछ फायदे भी हों , लेकिन इनसे हो रहे या होने वाले नुकसान की काफी चर्चा मीडिया में हो रही है। सोशल मीडिया के कुछ प्लेटफॉर्म्स में वायरल होने वाले फर्जी वीडियो की जाँच के लिए फैक्ट फाइंडिंग तकनीक भी उपलब्ध है ,लेकिन जब तक उस फर्जी वीडियो की वास्तविकता का पता लगता है ,तब तक काफी देर हो चुकी होती है और फर्जी बातें दूर तक पहुँच कर साधारण मनुष्यों को गुमराह कर सकती हैं।
मैंने देखा तो नहीं है ,लेकिन सुना है कि ए. आई. तकनीक के द्वारा आपके मुखारविन्द से वह सब कुछ कहलवाया जा सकता है ,जो आपने कभी कहा ही नहीं था। यानी इसके जरिए अफवाहें भी फैलाई जा सकती हैं। इसी तरह आप लेखक या कवि हों या न हों , लेकिन चैट जीपीटी के जरिए आप किसी भी विषय पर स्वयं के नाम से लेख या कहानी लिखवा सकते हैं ,पत्रकार हों या न हों , अपने लिए अपने नाम से समाचार लिखवा सकते हैं कविताओं का सृजन कर सकते हैं । यानी फर्जी लेखक,पत्रकार और फर्जी कवि बन कर प्रसिद्ध हो सकते हैं। यह देश और दुनिया में साहित्य और पत्रकारिता के लिए भी एक बड़ा संकट बन सकता है। ए. आई .तकनीक से कुछ टीव्ही चैनलों में न्यूज रीडिंग भी की गयी है। हालांकि उसमें कुछ गलत नहीं था ।
अब तक तो कम्प्यूटर पर फोटोशॉप साफ्टवेयर के जरिए किसी का सिर किसी के धड़ से जोड़ा जा सकता था ,लोग फोटो शॉप के जरिए कई तरह के फर्जी फोटो भी तैयार कर लेते थे और शायद करते भी हैं , फर्जी वीडियो भी वायरल होते रहते हैं , लेकिन अब डीप फेक में तो कोई भी किसी के भी वीडियो का गलत इस्तेमाल कर सकता है। या फर्जी वीडियो बना सकता है।हाल ही में एक फर्जी वीडियो वायरल हुआ ,जिसमें माननीय प्रधानमंत्री श्री नरेन्द्र मोदी को गरबा नृत्य करते हुए दिखाया गया।स्वयं प्रधानमंत्री ने इसका जिक्र करते हुए एक बैठक में लोगों को डीप फेक तकनीक से सावधान किया।
यह अच्छी बात है कि भारत सरकार ने डीप फेक के खतरों को गंभीरता से संज्ञान में लिया है। नई दिल्ली में कल केन्द्रीय इलेक्ट्रॉनिक्स एवं सूचना प्रौद्योगिकी मंत्री श्री अश्विनी वैष्णव की अध्यक्षता में आयोजित एक उच्च स्तरीय बैठक में डीप फेक वीडियो अपलोड करने वालों और इसके प्लेटफॉर्म बनाने वालों पर जुर्माना लगाने का निर्णय लिया गया। मंत्री जी ने डीप फेक को लोकतंत्र के लिए भी एक बड़ा ख़तरा बताया । इस बैठक में सभी प्रमुख इंटरनेट मीडिया संस्थानों के प्रमुख प्रतिनिधियों सहित कई तकनीकी विशेषज्ञ और शिक्षाविद भी शामिल हुए। बैठक में डीप फेक के खतरों से निपटने के लिए दस दिनों के भीतर एक स्पष्ट कार्ययोजना बनाने का भी निर्णय लिया गया।-स्वराज्य करुण
Subscribe to:
Post Comments (Atom)
No comments:
Post a Comment