“ස්තූතියි Gemini, දිව්ය ලෝකයේ ඉන්න මගේ තාත්තා එක්ක පින්තූරයක් මට හදලා දුන්නට.”
මේ, මීට දින කිහිපයකට පෙර සිය මිය ගිය පියාගේ උපන් දිනය දා ඔහුව සිහිපත් කරමින් තරුණියක ෆේස්බුක්හි පළ කර තිබුණු සටහනකි. එයට ඇය Google Gemini භාවිත කර නිර්මාණය කර ගත් සිය පියා සමග සිටින ඡායාරූපයක් ද එකතු කර තිබිණි.
දුටු සැණින් එය කෘත්රිම බුද්ධිය යොදාගෙන නිර්මාණය කරන ලද්දක් දැයි සිතා ගැනීමට නොහැකි වූයේ, එය එතරම් සත්ය ඡායාරූපයකට සමාන වූ බැවිනි.
එවැනි සංවේදී සිදුවීම් පමණක් නොව රෝස මල් අත ගත් පිරිමින්, අලංකාර සාරිවලින් සැරසුණු ගැහැනුන්ගෙන් ඉකුත් සතිය පුරා ෆේස්බුක් ඇතුළු සාමාජ මාධ්ය පිරී ඉතිරී ගොස් තිබිණි.
කෘත්රිම බුද්ධියේ උපකාර ගෙන තම සිතැඟි රුව නිර්මාණය කර නොගත් කෙනෙකු සොයා ගැනීම සත්ය වශයෙන් ම කළ නොහැක්කකි. එම කුලකයේ ඔබත් සිටිනවා විය හැකි ය.
ගිබ්ලි (Ghibli) උන්මාදය පහව ගොස් කෙටි කලක් ඇතුළත සයිබර් අවකාශය තුළ ශීඝ්රයෙන් ව්යාප්ත වුණු මෙම නව රැල්ලේ අවසානය කුමක් විය හැකි ද? කෘත්රිම බුද්ධි වේදිකාවලට ඔබ උඩුගත කරන ඡායාරූපවල අවසන් නවාතැන කුමක් විය හැකි ද? ඔබ මේ ගැන සිතා බැලුවා ද?
ඔබේ රුවට සමාන රුවක්…
සයිබර් ආරක්ෂණ විශේෂඥ අසේල වෛද්යාලංකාර පෙන්වා දුන්නේ, බොහෝ පිරිස් ඔන්ලයින් වේදිකාවලට උඩුගත නොකළ යුතු ආකාරයේ ඡායාරූප පවා කෘත්රිම බුද්ධි වේදිකාවලට උඩුගත කරන බව ත් එය ද අවදානම්සහගත තත්ත්වයක් නිර්මාණය කරන බව ත් ය.
නමුත් මෙය බොහෝ අවස්ථාවලදී වෙනත් පාර්ශවයක් විසින් සිදු කරනු ලබන බව ශ්රී ලංකා පරිගණක හදිසි ප්රතිචාර සංසදයේ තොරතුරු ආරක්ෂණ ඉන්ජිනේරු තිනුරි තිසේරා පැවසීය.
තම ආයතනය වෙත ලැබෙන පැමිණිලි ඇසුරෙන් පැහැදිලි කරමින් ඇය ඒ පිළිබඳව මෙලෙස විස්තර කළා ය.
“අපිට දැනට වාර්තා වෙන්නේ ඔරිජිනල් ෆොටෝස් වෙනත් කෙනෙක් අරගෙන ඒක AI ටූල් එකකට දාලා නිරුවත් ඡායාරූප විදිහට හරි එහෙම නැත්නම් වීඩියෝ දර්ශන විදිහට හරි සංස්කරණය කරලා, ඉම්පර්සනේට් කරන්න පාවිච්චි කරන එක.”
ඒ සඳහා බොහෝ විට පරිශීලකයින් සිය සමාජ මාධ්ය ගිණුම්වල උඩුගත කර ඇති ඡායාරූප භාවිත වී ඇති බව ඇය පෙන්වා දුන්නා ය.
DeepSeek භාවිත කිරීම ආරක්ෂිත ද?
“ඊට පස්සේ ඒවා පාවිච්චි කරලා තර්ජනය කරලා සල්ලි ගන්න, එහෙමත් නැත්නම්, එක එක තැන්වලට එන්න, වෙන වෙන ලිංගික අවශ්යතා සපුරා ගන්න කතා කරන ට්රෙන්ඩ් එකක් තමයි දැනට තියෙන්නේ,” ඉන්ජිනේරුවරිය තවදුරටත් පැවසුවා ය.
අසභ්ය චිත්රපට නිර්මාණය කිරීම සඳහා දැනටත් කෘත්රිම බුද්ධිය භාවිත වන බව අසේල වෛද්යාලංකාර සඳහන් කළේ ය.
“අපි හිතමු ඇඳුම් ඇඳන් හිටියොත්, ඒක Gen AIවලින් හදලා ඇඳුම් නැතුව හදලා දානවා. ඒවා හානිකර යි,” ඔහු අනතුරු ඇඟවීය.
ඔහු පෙන්වා දුන්නේ, මෙලෙස ඡායාරූප උඩුගත කිරීම වක්රාකාරව අහිතකර පාර්ශව අතට තම ඡායාරූප පත් වීමට ඇති අවදානම ඉහළ දමන බව ය.
“Ghibli ට්රෙන්ඩ් එකේදී උණෙත් ChatGPT එකට අලුතින් ට්රේනින් ඩේටා ආව එක. අපි එන්න එන්න මේවා කරන එකෙන්, අපිට තියෙන පෞද්ගලික දත්ත අවදානමට ලක් වෙන එක වැඩි වෙනවා,” ඔහු තවදුරටත් පැවසීය.
කෙසේ වෙතත්, රොබෝ තාක්ෂණය වැනි විෂයයන්වල දියුණුව හමුවේ, කෘත්රිම බුද්ධිය යොදාගෙන අනාගතයේදී සිදු විය හැකි අකටයුතුකම් පිළිබඳව ඉන්ජිනේරුවරිය අනතුරු ඇඟවූවා ය.
“දැන් රොබෝටික් තාක්ෂණය දියුණු වෙලා තියෙනවා. කෘත්රිම බුද්ධිය පාවිච්චි කරලා අපේ ක්ලෝන් එකක් හදන්න ඉඩ ලැබෙන්න පුළුවන්.
“උදාහරණයක් විදිහට මම දිගට ම චැට් කරනවා නම්, AI Bot කෙනෙක් එක්ක, මගේ පර්සනල් දේවල් ෂෙයාර් කර ගන්නවා නම්, මට ඕනේ උපදෙස් ගන්නේ ඒ හරහා නම්… ඒ වගේ දේවල්වලින් එයා සෙල්ෆ් ඇනලිසිස් එකක් කළොත් හරි, එයාට බැක්එන්ඩ් එකෙන් දීලා තියෙනවා නම් එහෙම ඇනලිසිස් එකක් කරලා මෙයාගේ හැසිරීම මෙන්න මෙහෙම යි කියලා හඳුනා ගන්න අපි දාන ඉමේජස් එක්ක, සමහර විට ඉස්සරහට එන්න තියෙන තාක්ෂණයත් එක්ක, එහෙම නැත්නම් දැනටමත් තියෙන තාක්ෂණයේදී ඒවා ඔක්කොම එකට එකතු කරලා මම වගේ ම තව රොබෝ කෙනෙකුව නිර්මාණය කිරීමේ හැකියාව තියෙනවා,” ඇය පැහැදිලි කළා ය.
ඇතැම් අවස්ථාවලදී Face ID වැනි ආරක්ෂිත ක්රම භාවිත කරන ජංගම දුරකතනවලට ඇතුළු වීමට භාවිත කළ හැකි බව ඇය පෙන්වා දුන්නා ය.
ඉන්ජිනේරුවරිය තවදුරටත් සඳහන් කළේ, කෘත්රිම බුද්ධිය යොදාගෙන නිර්මාණය කරන ඡායාරූප සහ වීඩියෝවල ඇති යතාර්ථවාදී බව හේතුවෙන් ව්යාජ පුවත්වල පවා පරිශීලකයින් ගොදුරක් වීමේ අනතුරුදායක තත්ත්වය මෙමගින් ඇති කරන බව ය.
කෘත්රිම බුද්ධියත් හැක් වුණොත්?
කෘත්රිම බුද්ධි දත්ත ගබඩා හැක් වීමට ඇති සම්භාවිතාව අඩු බව සයිබර් ආරක්ෂණ විශේෂඥ අසේල වෛද්යාලංකාර පැවසීය.
කෙසේ වෙතත්, එවැනි අවදානමක් නොපවතින බව ඉන් අදහස් නොවන බව ඔහු පෙන්වා දුන්නේ ය.
වර්තමානයේදී ද බොහෝ පාර්ශව මෙම දත්ත ගබඩා වෙත අනවසරයෙන් ඇතුළු වීමට උත්සහ කරන බව ඔහු පෙන්වා දුන්නේ ය.
“ඒ දත්ත මධ්යස්ථානයක් කවුරු හරි හැක් කළොත් මේ ඩේටා ගන්න පුළුවන්. අදටත් ගොඩක් දෙනෙක් උත්සහ කරනවා හැක් කරන්න. අපි මේ දේ කළා කියලා ඒ අය හෙළි කරනවා. ඒ අවදානම් නැහැ නෙවෙයි. ඒ අවදානම තියෙනවා. නමුත් දැනට ඒ අය මේ අවදානම කළමනාකරණය කරනවා,” ඔහු පැහැදිලි කළේ ය.
AI නිසා සිදුවන සේවක කප්පාදුවෙන් සිහින බොඳ වන මධ්යම පාන්තිකයෝ
කෙසේ වෙතත්, තුන් වන පාර්ශවයකට ඍජුව මෙම තොරතුරු ලැබීමට ඉඩකඩ අඩු බව ඔහු පැවසීය.
“නෑ කියන්න බැහැ. නමුත් ඔයා නොදැනුවත්ව අනෙක් ආයතනවලට ඔයාගේ ඩේටා හෑන්ඩ්ඕවර් කරනවා. එතනයි අවදානම තියෙන්නේ.”
තොරතුරු ආරක්ෂණ ඉන්ජිනේරු තිනුරි තිසේරා අනතුරු ඇඟවූයේ, මෙම දත්ත වෙනත් පාර්ශවයක් අතට පත් වුවහොත් ඩාක් වෙබ්අඩවිවල (Dark Web) පවා අලෙවි විය හැකි බව ය.
“බල්ක් එකක් විදිහට ඩේටා එළියට ලීක් වෙන්න පුළුවන්. ඒ ඩේටා ඩාක්වෙබ් එකේ එහෙම විකිනෙන්න පුළුවන් අවස්ථා තියෙනවා. තමන්ගේ අනන්යතාව සොරකමට ලක්ව වෙනවා එතකොට,” ඇය පැහැදිලි කළා ය.
එවැනි අවස්ථාවලදී ඔබේ රුවට සමාන රුව ඇති ගුවන් ගමන් බලපත්ර මෙන් ම හැඳුනුම් පත් පවා වංචනික ලෙස නිර්මාණය කිරීමට ඉඩ සැලසෙන බව ඉන්ජිනේරුවරිය පෙන්වා දුන්නා ය.
මෙටාඩේටා
ඡායාරූපයක අන්තර්ගත වන්නේ ඔබට ඇසින් නිරීක්ෂණය කළ හැකි තොරතුරු පමණක් නොවේ. එනම් ඒවායේ, ඡායාරූපය ලබා ගත් උපකරණය, දිනය, එහි ප්රමාණය, ස්ථානය ආදී තොරතුරු ඇතුළත් වේ.
එබැවින් ඡායාරූප කෘත්රිම බුද්ධිය වැනි වේදිකාවලට උඩුගත කිරීම සයිබර් ආරක්ෂක අවදානමක් මතු කරන බව සයිබර් ආරක්ෂණ විශේෂඥ අසේල වෛද්යාලංකාර පැවසීය.
“Gen AI විතරක් නෙවෙයි, ඔයා සෝෂල් මීඩියා දැම්මත් ඒ අවදානම තියෙනවා. අපි නොදැනුවත්ව ඔයා කොහේ හරි බැක්ග්රවුන්ඩ් එකක් තියලා පින්තූරයක් ගන්නවා. දැන් වේදිකා තියෙනවා, ඒ පින්තූරේ ගත්ත ස්ථානය හරියට ම කියන්න පුළුවන්. එතනදී ඔයාට අවදානමක් එනවා,” ඔහු පැහැදිලි කළේ ය.
මෙවැනි අවස්ථා පුද්ගලයින්ගේ පෞද්ගලික ආරක්ෂාව පවා අවදානමට ලක් කරන බව විශේෂඥවරයා අනතුරු ඇඟවීය.
ChatGPT:නඩු ගොනු විමර්ශන සඳහා කෘත්රිම බුද්ධිය භාවිත කළ බව ඇමෙරිකානු නීතිඥයෙක් පිළිගනියි
තොරතුරු ආරක්ෂණ ඉන්ජිනේරු තිනුරි තිසේරා ද ඊට එකඟ වෙමින් පැවසුවේ, මෙටාඩේටා අවභාවිත කිරීමේ හැකියාවක් ඉන් ලැබෙන බව ය.
කෘත්රිම බුද්ධිය පරිශීලකයින්ගෙන් ලබා ගන්නා දත්ත ගබඩා කර ගන්නා ආකාරය හෙළි නොකරන බව අසේල වෛද්යාලංකාර පැවසීය.
“අපි දන්නේ නැහැ ඒ විධියට ම ඒ පින්තූරය තියා ගන්නවා ද? කඩලා වෙන වෙන විදිහට තියා ගන්නවා ද? ඒ අයට දත්ත මධ්යස්ථාන ගොඩාක් තියෙනවා. ඒවා වාණිජ මේවලම් නේ. ඒ අයට කොහෙවත් කියලා නැහැ ඒවා හෙළි කරන්න කියලා,” ඔහු පැහැදිලි කළේ ය.
පරිස්සම් වෙන්නේ කොහොම ද?
ශ්රී ලංකා පරිගණක හදිසි ප්රතිචාර සංසදයේ තොරතුරු ආරක්ෂණ ඉන්ජිනේරු තිනුරි තිසේරා පෙන්වා දුන්නේ, මේ දක්වා ශ්රී ලංකාව තුළින් කෘත්රිම බුද්ධියට උඩුගත කරන ලද දත්ත අනවසරයෙන් ප්රසිද්ධියට පත් වීමන් සිදුව ඇති බව තම ආයතනයට වාර්තා වී නොමැති බව ය.
“දැනට අපිට කිසි ම විදිහකින් වාර්තා වෙලා නැහැ AI ටූල් එකකට අප්ලෝඩ් කළාට පස්සේ, උදාහරණයක් විදිහට Gemini හරි, ChatGPT හරි අප්ලෝඩ් කළාට පස්සේ ඒවායින් ඩේටා ලීක් වෙලා,” ඇය පැවසුවා ය.
නමුත් “ඉස්සරහට වෙන්න පුළුවන් හැකියාවක් තියෙනවා,” යැයි ඇය අනතුරු ඇඟවූවා ය.
සයිබර් ආරක්ෂණ විශේෂඥ අසේල වෛද්යාලංකාර ද බීබීසී සිංහල වෙත අදහස් දක්වමින් පැවසුවේ, අනාගතයේදී ඇති විය හැකි අවදානම් තත්ත්ව ඉහළ බව ය.
යහපත සඳහා AI: කෘත්රිම බුද්ධිය සහිත රොබෝවරු
“මේවල තියෙන ප්රයෝජන වගේ ම අනෙක් පැත්තට තියෙන්නේ තමන්ගේ තමන්ගේ පර්සනල් ඩේටා අවදානමේ දාගන්න එක තමයි,” ඔහු පැවසීය.
ඒ හේතුවෙන්, “පාවිච්චි කරනවා නම් ඒකෙ ප්රතිවිපාකත් බලාපොරොත්තුවෙන් කරන්න කියන එක තමයි දෙන්න පුළුවන් උපදෙස,” යැයි ඉන්ජිනේරුවරිය පෙන්වා දුන්නා ය.
“අපිට 100%ක් ම ආරක්ෂිතයි කියලා තහවුරු කරන්න බැහැ, මොකද අපි ඩිජිටල් ලෝකයක ඉන්න නිසා.
“නොමිලේ දෙන ටූල්ස් පාවිච්චි කරන කොට [අනතුරක් වීමේ] සම්භාවිතාව වැඩියි. ඒක එළියට ලීක් වෙන්න පුළුවන්. මොකද අපි දන්නේ නැහැ මේ දත්ත කොහෙද ගබඩා කර ගන්නේ, කොයි විදිහට ද ගබඩා කර ගන්නේ, ඒවා මොනවා විදිහට ද ප්රොසෙස් කරන්නේ කියලා. මොකද අපි ගන්නේ ෆ්රී සර්විස් එකක් නිසා.”
නමුත් මුදල් අය කර කෘත්රිම බුද්ධි සේවා සපයන ඇතැම් වේදිකා මගින් පරිශීලක දත්ත අවභාවිත නොකරන බව සහතික කරන්නේ යැයි ඇය පැවසුවා ය.
“ඒ නිසා ෆ්රී ඒවා පාවිච්චි කරද්දී පොඩ්ඩක් පරිස්සමින්,” ඉන්ජිනේරුවරිය අවධාරණය කළා ය.
https://www.bbc.com/sinhala/articles/c62n1d92y0ro
-BBC sinhala