ChatGPT જેવા જનરેટિવ AI ટૂલ્સ વપરાશકર્તાઓ માટે સમસ્યા બની ગયા છે. એક અભ્યાસમાં આ વાત સામે આવી છે, જેમાં કહેવામાં આવ્યું છે કે જનરેટિવ AI યુઝરની ડેટા પ્રાઈવસી માટે મોટો ખતરો પેદા કરી શકે છે.
ChatGPT જેવી જનરેટિવ AI છેલ્લા બે વર્ષથી સમાચારમાં છે. જનરેટિવ આર્ટિફિશિયલ ઈન્ટેલિજન્સ ફીચરને કારણે એક તરફ યૂઝર્સના ઘણા કામ આસાન થઈ ગયા છે, તો બીજી તરફ GenAI (જનરેટિવ AI) સમસ્યા બની ગઈ છે. એક રિપોર્ટમાં કહેવામાં આવ્યું છે કે જનરેટિવ AIના કારણે યુઝર ડેટા સિક્યુરિટીમાં ભંગ થવાની સંભાવના છે. રિપોર્ટ અનુસાર, 27 ટકા કંપનીઓએ તાત્કાલિક અસરથી GenAI પર પ્રતિબંધ મૂક્યો છે.
વ્યક્તિગત ડેટાની સુરક્ષા એ એક મોટો પડકાર છે
CISCO 2024 ડેટા પ્રાઈવસી બેન્ચમાર્ક સ્ટડીમાં બહાર આવ્યું છે કે જનરેટિવ AIના કારણે કંપનીઓને બૌદ્ધિક સંપદા અધિકારોના ઉલ્લંઘનના કિસ્સામાં કાનૂની કાર્યવાહીનો સામનો કરવો પડી શકે છે. 69 ટકા કંપનીઓ માટે આ એક મોટો પડકાર છે. તે જ સમયે, 68 ટકા કંપનીઓએ સ્વીકાર્યું કે જનરેટિવ AIને કારણે, ઘણી વ્યક્તિગત માહિતી પબ્લિક ડોમેન સુધી પહોંચી શકે છે અને હરીફ કંપનીઓના હાથમાં આવી શકે છે.
48 ટકા કંપનીઓ માને છે કે તેઓએ જનરેટિવ AI ટૂલ્સનો ઉપયોગ કરવાનું શરૂ કર્યું છે અથવા શરૂ કરવાની તૈયારીમાં છે.
આ CISCO અભ્યાસમાં ભાગ લેનારા 90 ટકા યુઝર્સનું કહેવું છે કે જનરેટિવ AIને ડેટા પ્રાઈવસીનો ભંગ થતો અટકાવવા માટે નવી ટેકનિક શીખવાની જરૂર છે, જેથી યુઝરનો વિશ્વાસ જળવાઈ રહે. 91 ટકા કંપનીઓ માને છે કે જનરેટિવ AI પર વપરાશકર્તાઓ દ્વારા વિશ્વાસ કરવાની જરૂર છે, જેથી તેમના વ્યક્તિગત ડેટાનો દુરુપયોગ ન થઈ શકે.
AI ટૂલ સમસ્યા બની શકે છે
તમે ChatGPT, Google Bard જેવા AI ટૂલ્સ પર કોઈપણ પ્રકારની માહિતી મેળવી શકો છો. આ સાધનો દ્વારા મેળવવામાં આવેલી માહિતી સાર્વજનિક ડોમેનમાં ઉપલબ્ધ હોઈ શકે છે, જે વપરાશકર્તાની ડેટા ગોપનીયતા માટે મોટો ખતરો બની શકે છે. આવી સ્થિતિમાં, જનરેટિવ AIનો ઉપયોગ કરતી વખતે વપરાશકર્તાઓએ ઘણી સાવચેતી રાખવાની પણ જરૂર છે. આવા ટૂલ્સ બનાવતી કંપનીઓએ યુઝર્સને આ જોખમો વિશે જાણ કરવી પડશે. વપરાશકર્તા ઓળખની ચોરીનું સૌથી મોટું જોખમ ડિજિટલ વિશ્વમાં છે.