आस्वाद

एआय फोटो; सायबर क्राइमची भीती !

आधुनिक तंत्रज्ञानात एआय ही सर्वांत वेगाने वाढणारी क्रांती आहे. फोटो तयार करणे, बदलणे आणि नव्या पद्धतीने दिसणे हे त्याचे मोठे आकर्षण बनले आहे. मात्र, मनोरंजनात्मकदृष्ट्या याचा अवलंब होत असला तरी महिलांसाठी फोटो-जनरेशन एआय धोकादायक ठरु शकते. आपण कल्पना करू शकत नाही, याचा मोठा परिणाम होण्याची भीती आहे. दिसायला हा साधा ट्रेंड असला, तरी याचे सामाजिक, मानसिक आणि नैतिक परिणाम गंभीर असू शकतात. त्यामुळे एआयच्या वापरावर बंधने असणे आवश्यक आहे.
सध्याच्या घडीला एआयचे चांगलेच फॅड दिसते आहे. एक साधा फोटोद्वारे एआयच्या मदतीने डझनभर नवीन, वेगळे फोटो तयार केले जातात. पारंपरिक मेकअपशिवाय सुंदर दिसणे, नवीन ड्रेस घातल्यासारखे फोटोज किंवा आगळीवेगळी लोकेशन्स हे सर्व एआयमुळे शक्य होते. अनेक महिला व मुली या फोटोद्वारे मनस्वी आनंद घेण्यासाठी सहभागी होतात; परंतु या मागे लपलेला धोका कुणाच्याही सहज लक्षात येत नाही. सोशल मीडियावर टाकलेला साधा प्रोफाइल फोटो एआयच्या डेटाबेसमध्ये गेला तर, त्याचे रूपांतर कुठल्याही स्वरूपात केले जाऊ शकते. विशेषत: महिला, मुली यांंचे फेक फोटो तयार करून बदनामी करण्याबरोबरच प्रसंगी ब्लॅकमेलिंगही याद्वारे होण्याची भीती असते. परवानगीशिवाय तयार केलेले अश्लील किंवा फेक फोटो महिलांच्या प्रतिमेला धक्का पोहोचवतात. आज आपण माध्यमातून बघतो की, एआयच्या मदतीने महिलांचे फोटो, व्हिडिओद्वारे सामाजिक बदनामी करण्याचे प्रकार समोर येत आहे. यात अगदी सर्वसामान्य महिलांपासून ते सिने अभिनेत्रीचे फोटो व्हायरल केल्याचे दिसून आले आहे. अनेकदा असे फेक फोटो इतके खरे वाटतात की त्यातला फरक साध्या व्यक्तीला लक्षात येणं कठीण होतं. सायबर क्राइमद्वारे महिलांचे फोटो चोरुन ते समाजमाध्यमासह वेगवेगळ्या संकेतस्थळावर टाकले जातात. परिणामी याचा मोठा आघात महिलांवर होतो. चूक नसूनही सामाजिक बदनामी सहन करावी लागते. एकप्रकारे हा सायबर भामट्यांकडून महिला वर्गाचा छळ आहे. फेक फोटो पसरल्यास त्यांचा व्यावसायिक आणि सामाजिक सन्मान गमावण्याची भीती असते. याशिवाय समाजस्तरावक्षींन होणारे प्रश्न, अपमान, अविश्वासाचा सामना महिलांना करावा लागण्याची भीती असते. दरम्यान आपले फोटो सायबर क्राईमकरिता कोणी वापरु शकणार नाहीत. याची काळजी घेण्याची गरज आहे. परंतु अनेकदा यामध्ये काळजी कशी घ्यावी. हेच माहिती नसल्याने आणि सायबर भामटयाकडून चुकीच्या उद्देशाने फोटो वापरल्यास सामाजिक भीतीमुळे अनेक महिला कायमस्वरुपी सोशल मीडियापासून दूर होतील. मात्र अशी परिस्थिती टाळायची असल्यास महिलासह महाविद्यालयीन युवतीनी सोशल मीडियावर त्यांचे फोटो अपलोड कस्रताना विशेष खबरदारी घेणे गरजेचे आहे. सरकार व कायद्याने एआय फोटोमधील गैरवापराविरुद्ध कडक नियम करणे आवश्यक आहे. प्रत्येकाने डिजिटल साक्षरता वाढवून अशा फसवणुकीविरुद्ध जागरूक राहणे महत्त्वाचे आहे.
धोका टाळण्यासाठी उपाय
सोशल मीडियावर वैयक्तिक फोटोंचा मर्यादित वापर करा. फोटो शेअर करण्यापूर्वी तपासा. नवीन एआय ट्रेंडमध्ये भाग घेण्याआधी तुमचा डेटा सुरक्षित आहे का नाही? हे तपासून घ्या. एआय फोटो ट्रेंड मजेशीर वाटतो,पण त्याचा भविष्यातील गैरवापर गंभीर स्वरूप धारण करू शकतो. विशेषतः महिलांसाठी तो सायबर-छळाचा नवा मार्ग ठरू शकतो. म्हणून प्रत्येकाने सावधगिरीने या ट्रेंडचा वापर करावा. मनस्वी वाटणारा आनंद आपल्यासाठी सामाजिक समस्या बनू शकतो, याची खबरदारी घेणे आवश्यक आहे.

AI photos; Fear of cybercrime!
 

 

Sheetal Nagpure

शीतल नागपुरे या गांवकरी मध्ये डिजिटल विभागात कार्यरत असून, १ वर्षापासून ऑनलाइन वृत्त संकलनाचे काम करत आहेत. त्या पदवीधर असून, त्यांना वाचनाची आवड आहे.

Recent Posts

दादांची अकाली एक्झिट ! जिल्हा शोकसागरात

सर्वपक्षीयांकडून जड अंतःकरणाने श्रद्धांजली; कार्यकर्त्यांच्या अश्रूंचा बांध फुटला नाशिक ः प्रतिनिधी राष्ट्रवादी काँग्रेस पक्षाचे प्रमुख…

7 hours ago

स्मार्ट पार्किंगचे घोडे अडलेलेच!

टेंडर सेलकडून कार्यवाही होईना... नाशिक : प्रतिनिधी नाशिक महापालिका शहरातील वाहतूक कोंडीचा प्रश्न मार्गी लावण्यासाठी…

8 hours ago

बांगलादेश क्रिकेट बोर्डाचा आत्मघातकी निर्णय

बांगलादेशने दुराग्रही भूमिका घेऊन भारतात होणार्‍या टी-20 विश्वचषक स्पर्धेत न खेळण्याचा निर्णय घेतला. बांगलादेशचा हा…

8 hours ago

अजितदादांची साथ नेहमी स्मरणात राहील!

उपमुख्यमंत्री अजितदादा पवार यांचे अपघाती निधन वेदनादायी आहे. राज्याचे सहा वेळा उपमुख्यमंत्री म्हणून व दीर्घकाळ…

8 hours ago

पवार परिवारावर आघात

महाराष्ट्रात ज्यांना जाणता राजा म्हटले जाते, त्या शरद पवारांच्या सावलीत वाढलेले एक बोलके, दिलखुलास राजकीय…

8 hours ago

मीठसागरे शिवारात बिबट्या मादी जेरबंद

सिन्नर : प्रतिनिधी तालुक्यातील मीठसागरे शिवारात बुधवारी (दि. 28) सकाळी चार वर्षे वयाची बिबट्याची मादी…

8 hours ago