डिवाइस में डीपसीक को डाउनलोड करने के बारे में सोच रहे हैं तो जरा रुकिए क्योंकि ये बहुत ही खतरनाक हो सकता है. वॉलस्ट्रीट जरनल (Wall Street Journal) ने चीन के DeepSeek एआई को लेकर चौंका देने वाली रिपोर्ट जारी की है. इस रिपोर्ट में ये कहा गया है कि ये सुरक्षित AI नहीं है और अपने प्रतिद्वंदी अमेरिकी AI के मुकाबले ज्यादा घातक जानकारियां देता है.
रिपोर्ट के अनुसार, चीनी आर्टिफिशियल इंटेलिजेंस ऐप बर्ड फ्लू को मोडिफाई करने के निर्देश देता है, किशोरों के बीच खुद को नुकसान पहुंचाने के लिए प्रोत्साहित करता है और यहां तक कि हिटलर का बचाव भी करता है. DeepSeek के लेटेस्ट मॉडल, R1 ने OpenAI के चैटजीपीटी, गूगल के जेमिनी और एंथ्रोपिक के क्लाउड की तुलना में जेलब्रेकिंग के प्रति ज्यादा संवेदनशीलता दिखाई है. ये वलनरेबिलिटी सेफगार्ड को दरकिनार कर सकता है और मोलोटोव कॉकटेल निर्देश और मैलवेयर बनाने के लिए गाइड देता है.
किसी भी AI को सरकारी सेफ्टी कमिटमेंट पर हस्ताक्षर करना होता है. लेकिन इसके बावजूद ये ऐप मलेशियस कंटेंट जनरेट करता है. सिस्को के चीफ प्रोडक्ट ऑफिसर जीतू पटेल ने कहा कि पिछले आठ महीनों की तुलना में अगले तीन महीनों में आपको एआई मॉडल के साथ बहुत अधिक जोखिम पर होगा. जिसने आर1 का परीक्षण किया और पाया कि यह अपने सभी जेलब्रेक के लिए विफल रहा. इसका मतलब ये है कि जो भी AI मॉडल बना रहा है, उन सभी में बहुतों की प्राथमिकता सुरक्षा नहीं होने जा रही है.
डीपसीक ऐप की बेसिक सेफ्टी प्रीकॉशन को भी आसानी से दरकिनार किया जा सकता है. पाया गया है कि डीपसीक सेल्फ-हार्म यानी खुद को नुकसान पहुंचाने की प्रवृत्ति को बढावा देता है और जैव-हथियार तैयार करने के निर्देश भी देता है. यहां तक कि ये हिटलर का समर्थक करता है. इसके विपरीत, चैटजीपीटी ने इसी तरह के अनुरोधों को अस्वीकार कर दिया, जिससे सुरक्षा उपायों में असमानता उजागर हुई.