एआई और डीप-फेक को किसी की परवाह नहीं
नई दिल्ली. एआई से सुंदर तस्वीरें बनवाना नए खतरे लेकर आया है। गूगल के जैमिनी नैनो बनाना एआई फोटो एडिटिंग टूल के एआई साड़ी एडिट ट्रेंड के दौरान सामने आए इंस्टाग्राम यूजर झलक भवनानी के मामले ने साबित कर दिया कि टेक कंपनियां लोगों की निजता का सौदा कर रही हैं। कंपनियों के पास इतना निजी डेटा हैं कि वह जानती है कि डीप फेक में तिल कहां लगाना है? गूगल इस डेटा का उपयोग की यूजर्स से सहमति ले चुका है।
. पूरी बांह सूट, एआई तस्वीर में दिखा तिल
झलक भवनानी ने इंस्टाग्राम पर बताया कि उन्होंने एआई साड़ी ट्रेंड के लिए फोटो अपलोड की। अपलोड तस्वीर में उन्होंने पूरी आस्तीन का सूट पहना था, लेकिन एआई ने जो तस्वीर दी, जिसमें उनके कंधे पर तिल दिख रहा है। झलक पूछती हैं कि एआई को इसके बारे में कैसे पता? वे इस ट्रेंड से बचने की सलाह दे रही हैं।
कैसे संभव: आशंका है कि झलक की नकल बनाने के लिए एआई ने बिना अनुमति सोशल मीडिया अकाउंट से पुरानी तस्वीरों का उपयोग किया। इनमें उनके कंधे का तिल नजर आ रहा होगा।
मेटाडेटा हटाएं: फोटो अपलोड करने से पहले मेटाडेटा (लोकेशन व डिवाइस डिटेल्स) रिमूव करें।
निजता नीति चेक करें: एप या प्लेटफॉर्म की डेटा यूज पॉलिसी पढ़ें। वह आपका डेटा एआई तकनीक की ट्रेनिंग में उपयोग कर रहा है तो कुछ अपलोड करने से बचें।
सेंसिटिव डेटा शेयर न करें: चेहरा, आवाज या पर्सनल वीडियो अनजान प्लेटफॉर्म्स या एप पर अपलोड न करें।







Users Today : 9
Users Yesterday : 26