Monday, October 13, 2025
More
    Homeතාක්ෂණයAI ඡායාරූප සැකසීම සඳහා ලබා දුන් ඔබේ ම ඡායාරූප අනාගතයේදී ඔබට ම...

    AI ඡායාරූප සැකසීම සඳහා ලබා දුන් ඔබේ ම ඡායාරූප අනාගතයේදී ඔබට ම හමුවිය හැකි ඔබ නොහිතන තැන්

    “ස්තූතියි Gemini, දිව්‍ය ලෝකයේ ඉන්න මගේ තාත්තා එක්ක පින්තූරයක් මට හදලා දුන්නට.”

    මේ, මීට දින කිහිපයකට පෙර සිය මිය ගිය පියාගේ උපන් දිනය දා ඔහුව සිහිපත් කරමින් තරුණියක ෆේස්බුක්හි පළ කර තිබුණු සටහනකි. එයට ඇය Google Gemini භාවිත කර නිර්මාණය කර ගත් සිය පියා සමග සිටින ඡායාරූපයක් ද එකතු කර තිබිණි.

    දුටු සැණින් එය කෘත්‍රිම බුද්ධිය යොදාගෙන නිර්මාණය කරන ලද්දක් දැයි සිතා ගැනීමට නොහැකි වූයේ, එය එතරම් සත්‍ය ඡායාරූපයකට සමාන වූ බැවිනි.

    එවැනි සංවේදී සිදුවීම් පමණක් නොව රෝස මල් අත ගත් පිරිමින්, අලංකාර සාරිවලින් සැරසුණු ගැහැනුන්ගෙන් ඉකුත් සතිය පුරා ෆේස්බුක් ඇතුළු සාමාජ මාධ්‍ය පිරී ඉතිරී ගොස් තිබිණි.

    කෘත්‍රිම බුද්ධියේ උපකාර ගෙන තම සිතැඟි රුව නිර්මාණය කර නොගත් කෙනෙකු සොයා ගැනීම සත්‍ය වශයෙන් ම කළ නොහැක්කකි. එම කුලකයේ ඔබත් සිටිනවා විය හැකි ය.

    ගිබ්ලි (Ghibli) උන්මාදය පහව ගොස් කෙටි කලක් ඇතුළත සයිබර් අවකාශය තුළ ශීඝ්‍රයෙන් ව්‍යාප්ත වුණු මෙම නව රැල්ලේ අවසානය කුමක් විය හැකි ද? කෘත්‍රිම බුද්ධි වේදිකාවලට ඔබ උඩුගත කරන ඡායාරූපවල අවසන් නවාතැන කුමක් විය හැකි ද? ඔබ මේ ගැන සිතා බැලුවා ද?

    මේ පිළිබඳව පැහැදලි අවබෝධයක් ලබා ගැනීම සඳහා බීබීසී සිංහල තොරතුරු තාක්ෂණ ක්ෂේත්‍රයේ විශේෂඥයින් දෙදෙනෙකු සමග සංවාදයේ යෙදිණි.

    කෘත්‍රිම බුද්ධිය පුහුණු කිරීම සඳහා

    වර්තමානයේ අප විසින් විවිධ අවශ්‍යතා සඳහා භාවිත කරනු ලබන බොහෝ කෘත්‍රිම බුද්ධි වේදිකා අප ඒවා වෙත ලබා දෙන දත්ත ඔවුන්ගේ පද්ධති වැඩිදියුණු කිරීමට (AI Model Training) භාවිත කරන බව නොරහසකි.

    ඒවා කෘත්‍රිම බුද්ධි සේවා සපයන්නාගේ ප්‍රතිපත්ති අනුව වෙනස් විය හැකි නමුත් බොහෝ වේදිකා පවසන්නේ, අප විසින් එම වේදිකා වෙත ඇතුළත් කරනු ලබන දත්ත ඇතැම් විට ඒවායේ පුහුණු (training) කටයුතු සඳහා යොදා ගත හැකි බව ය.

    කෙසේ වෙතත්, පරිශීලකයාට එය පාලනය කිරීමේ අවස්ථාව ලබා දෙන වේදිකා ද තිබේ. මෙම දත්ත පෙළ (text), රූප (image) හෝ ශ්‍රව්‍ය (audio) වැනි විවිධ ස්වරූප ගනී.

    සයිබර් ආරක්ෂණ විශේෂඥ අසේල වෛද්‍යාලංකාර බීබීසී සිංහල වෙත අදහස් දක්වමින් එය මෙලෙස පැහැදිලි කළේ ය.

    “ඉස්සෙල්ලා ම අහන්න ඕනේ ප්‍රශ්නය තමයි ඔයා ඔය අප්ලෝඩ් කරන ඉමේජ් එකේ ප්‍රයිවසි එක මොකක් ද කියලා.

    “උදාහරණයක් ලෙස ChatGPT නම්, ඒකෙ නියමයන් සහ කොන්දේසි කියෙව්වොත් පැහැදිලිව ඒ අය සඳහන් කරනවා ඉමේජ් එකක් අප්ලෝඩ් කළා ම ඒක ඒ අයගේ ට්‍රේනින් ඩේටාවලට පාවිච්චි කරන්න පුළුවන් කියලා.”

    ඔහු පෙන්වා දුන්නේ, පරිශීලකයින් විසින් තම අවශ්‍යතා වෙනුවෙන් කෘත්‍රිම බුද්ධි වේදිකාවලට උඩුගත කරන ඡායාරූප බොහෝ විට පෞද්ගලිකත්වය සම්බන්ධයෙන් ගත් කල සංවේදී ඒවා බව ය.

    එතකොට අපි හිතමු ඔයා අප්ලෝඩ් කරන්නේ ඔයාගේ අම්මා තාත්තාගේ, ආච්චි සීයාගේ හරි පින්තුරයක්. ඒක ඔයාට පෞද්ගලික පින්තූරයක් නේ. නමුත් ඔයා ඒක දැන් ඇල්ගොරිදම් එකක ට්‍රේනින් ඩේටාවලට දීලා තියෙනවා. ඔයා එතනදී වගකීම් විරහිත වෙලා තියෙනවා ඔයාගේ ඩේටා එකක් දෙන්න,” අසේල වෛද්‍යාලංකාර තවදුරටත් පැහැදිලි කළේ ය.

    AI Model Training, පරිගණක වැඩසටහනකට විශාල තොරතුරු ප්‍රමාණයක් තේරුම් ගැනීමට සහ ඒවා සමග වැඩ කිරීමට ඉගැන්වීම ලෙස සරල හැඳින්විය හැකි ය. එවිට එයට ඒවා භාවිත කර ප්‍රශස්ත මට්ටමේ ප්‍රතිඵල ලබා දීමේ හැකියාව පවතින බව කෘත්‍රිම බුද්ධිය පිළිබඳ අධ්‍යනය කරන විශේෂඥයෝ පවසති.

    ඔබේ රුවට සමාන රුවක්…

    සයිබර් ආරක්ෂණ විශේෂඥ අසේල වෛද්‍යාලංකාර පෙන්වා දුන්නේ, බොහෝ පිරිස් ඔන්ලයින් වේදිකාවලට උඩුගත නොකළ යුතු ආකාරයේ ඡායාරූප පවා කෘත්‍රිම බුද්ධි වේදිකාවලට උඩුගත කරන බව ත් එය ද අවදානම්සහගත තත්ත්වයක් නිර්මාණය කරන බව ත් ය.

    නමුත් මෙය බොහෝ අවස්ථාවලදී වෙනත් පාර්ශවයක් විසින් සිදු කරනු ලබන බව ශ්‍රී ලංකා පරිගණක හදිසි ප්‍රතිචාර සංසදයේ තොරතුරු ආරක්ෂණ ඉන්ජිනේරු තිනුරි තිසේරා පැවසීය.

    තම ආයතනය වෙත ලැබෙන පැමිණිලි ඇසුරෙන් පැහැදිලි කරමින් ඇය ඒ පිළිබඳව මෙලෙස විස්තර කළා ය.

    “අපිට දැනට වාර්තා වෙන්නේ ඔරිජිනල් ෆොටෝස් වෙනත් කෙනෙක් අරගෙන ඒක AI ටූල් එකකට දාලා නිරුවත් ඡායාරූප විදිහට හරි එහෙම නැත්නම් වීඩියෝ දර්ශන විදිහට හරි සංස්කරණය කරලා, ඉම්පර්සනේට් කරන්න පාවිච්චි කරන එක.”

    ඒ සඳහා බොහෝ විට පරිශීලකයින් සිය සමාජ මාධ්‍ය ගිණුම්වල උඩුගත කර ඇති ඡායාරූප භාවිත වී ඇති බව ඇය පෙන්වා දුන්නා ය.

    “ඊට පස්සේ ඒවා පාවිච්චි කරලා තර්ජනය කරලා සල්ලි ගන්න, එහෙමත් නැත්නම්, එක එක තැන්වලට එන්න, වෙන වෙන ලිංගික අවශ්‍යතා සපුරා ගන්න කතා කරන ට්‍රෙන්ඩ් එකක් තමයි දැනට තියෙන්නේ,” ඉන්ජිනේරුවරිය තවදුරටත් පැවසුවා ය.

    අසභ්‍ය චිත්‍රපට නිර්මාණය කිරීම සඳහා දැනටත් කෘත්‍රිම බුද්ධිය භාවිත වන බව අසේල වෛද්‍යාලංකාර සඳහන් කළේ ය.

    “අපි හිතමු ඇඳුම් ඇඳන් හිටියොත්, ඒක Gen AIවලින් හදලා ඇඳුම් නැතුව හදලා දානවා. ඒවා හානිකර යි,” ඔහු අනතුරු ඇඟවීය.

    ඔහු පෙන්වා දුන්නේ, මෙලෙස ඡායාරූප උඩුගත කිරීම වක්‍රාකාරව අහිතකර පාර්ශව අතට තම ඡායාරූප පත් වීමට ඇති අවදානම ඉහළ දමන බව ය.

    “Ghibli ට්‍රෙන්ඩ් එකේදී උණෙත් ChatGPT එකට අලුතින් ට්‍රේනින් ඩේටා ආව එක. අපි එන්න එන්න මේවා කරන එකෙන්, අපිට තියෙන පෞද්ගලික දත්ත අවදානමට ලක් වෙන එක වැඩි වෙනවා,” ඔහු තවදුරටත් පැවසීය.

    කෙසේ වෙතත්, රොබෝ තාක්ෂණය වැනි විෂයයන්වල දියුණුව හමුවේ, කෘත්‍රිම බුද්ධිය යොදාගෙන අනාගතයේදී සිදු විය හැකි අකටයුතුකම් පිළිබඳව ඉන්ජිනේරුවරිය අනතුරු ඇඟවූවා ය.

    “දැන් රොබෝටික් තාක්ෂණය දියුණු වෙලා තියෙනවා. කෘත්‍රිම බුද්ධිය පාවිච්චි කරලා අපේ ක්ලෝන් එකක් හදන්න ඉඩ ලැබෙන්න පුළුවන්.

    “උදාහරණයක් විදිහට මම දිගට ම චැට් කරනවා නම්, AI Bot කෙනෙක් එක්ක, මගේ පර්සනල් දේවල් ෂෙයාර් කර ගන්නවා නම්, මට ඕනේ උපදෙස් ගන්නේ ඒ හරහා නම්… ඒ වගේ දේවල්වලින් එයා සෙල්ෆ් ඇනලිසිස් එකක් කළොත් හරි, එයාට බැක්එන්ඩ් එකෙන් දීලා තියෙනවා නම් එහෙම ඇනලිසිස් එකක් කරලා මෙයාගේ හැසිරීම මෙන්න මෙහෙම යි කියලා හඳුනා ගන්න අපි දාන ඉමේජස් එක්ක, සමහර විට ඉස්සරහට එන්න තියෙන තාක්ෂණයත් එක්ක, එහෙම නැත්නම් දැනටමත් තියෙන තාක්ෂණයේදී ඒවා ඔක්කොම එකට එකතු කරලා මම වගේ ම තව රොබෝ කෙනෙකුව නිර්මාණය කිරීමේ හැකියාව තියෙනවා,” ඇය පැහැදිලි කළා ය.

    ඇතැම් අවස්ථාවලදී Face ID වැනි ආරක්‍ෂිත ක්‍රම භාවිත කරන ජංගම දුරකතනවලට ඇතුළු වීමට භාවිත කළ හැකි බව ඇය පෙන්වා දුන්නා ය.

    ඉන්ජිනේරුවරිය තවදුරටත් සඳහන් කළේ, කෘත්‍රිම බුද්ධිය යොදාගෙන නිර්මාණය කරන ඡායාරූප සහ වීඩියෝවල ඇති යතාර්ථවාදී බව හේතුවෙන් ව්‍යාජ පුවත්වල පවා පරිශීලකයින් ගොදුරක් වීමේ අනතුරුදායක තත්ත්වය මෙමගින් ඇති කරන බව ය.

    කෘත්‍රිම බුද්ධියත් හැක් වුණොත්?

    කෘත්‍රිම බුද්ධි දත්ත ගබඩා හැක් වීමට ඇති සම්භාවිතාව අඩු බව සයිබර් ආරක්ෂණ විශේෂඥ අසේල වෛද්‍යාලංකාර පැවසීය.

    කෙසේ වෙතත්, එවැනි අවදානමක් නොපවතින බව ඉන් අදහස් නොවන බව ඔහු පෙන්වා දුන්නේ ය.

    වර්තමානයේදී ද බොහෝ පාර්ශව මෙම දත්ත ගබඩා වෙත අනවසරයෙන් ඇතුළු වීමට උත්සහ කරන බව ඔහු පෙන්වා දුන්නේ ය.

    “ඒ දත්ත මධ්‍යස්ථානයක් කවුරු හරි හැක් කළොත් මේ ඩේටා ගන්න පුළුවන්. අදටත් ගොඩක් දෙනෙක් උත්සහ කරනවා හැක් කරන්න. අපි මේ දේ කළා කියලා ඒ අය හෙළි කරනවා. ඒ අවදානම් නැහැ නෙවෙයි. ඒ අවදානම තියෙනවා. නමුත් දැනට ඒ අය මේ අවදානම කළමනාකරණය කරනවා,” ඔහු පැහැදිලි කළේ ය.

    කෙසේ වෙතත්, තුන් වන පාර්ශවයකට ඍජුව මෙම තොරතුරු ලැබීමට ඉඩකඩ අඩු බව ඔහු පැවසීය.

    “නෑ කියන්න බැහැ. නමුත් ඔයා නොදැනුවත්ව අනෙක් ආයතනවලට ඔයාගේ ඩේටා හෑන්ඩ්ඕවර් කරනවා. එතනයි අවදානම තියෙන්නේ.”

    තොරතුරු ආරක්ෂණ ඉන්ජිනේරු තිනුරි තිසේරා අනතුරු ඇඟවූයේ, මෙම දත්ත වෙනත් පාර්ශවයක් අතට පත් වුවහොත් ඩාක් වෙබ්අඩවිවල (Dark Web) පවා අලෙවි විය හැකි බව ය.

    “බල්ක් එකක් විදිහට ඩේටා එළියට ලීක් වෙන්න පුළුවන්. ඒ ඩේටා ඩාක්වෙබ් එකේ එහෙම විකිනෙන්න පුළුවන් අවස්ථා තියෙනවා. තමන්ගේ අනන්‍යතාව සොරකමට ලක්ව වෙනවා එතකොට,” ඇය පැහැදිලි කළා ය.

    එවැනි අවස්ථාවලදී ඔබේ රුවට සමාන රුව ඇති ගුවන් ගමන් බලපත්‍ර මෙන් ම හැඳුනුම් පත් පවා වංචනික ලෙස නිර්මාණය කිරීමට ඉඩ සැලසෙන බව ඉන්ජිනේරුවරිය පෙන්වා දුන්නා ය.

    මෙටාඩේටා

    ඡායාරූපයක අන්තර්ගත වන්නේ ඔබට ඇසින් නිරීක්ෂණය කළ හැකි තොරතුරු පමණක් නොවේ. එනම් ඒවායේ, ඡායාරූපය ලබා ගත් උපකරණය, දිනය, එහි ප්‍රමාණය, ස්ථානය ආදී තොරතුරු ඇතුළත් වේ.

    එබැවින් ඡායාරූප කෘත්‍රිම බුද්ධිය වැනි වේදිකාවලට උඩුගත කිරීම සයිබර් ආරක්ෂක අවදානමක් මතු කරන බව සයිබර් ආරක්ෂණ විශේෂඥ අසේල වෛද්‍යාලංකාර පැවසීය.

    “Gen AI විතරක් නෙවෙයි, ඔයා සෝෂල් මීඩියා දැම්මත් ඒ අවදානම තියෙනවා. අපි නොදැනුවත්ව ඔයා කොහේ හරි බැක්ග්‍රවුන්ඩ් එකක් තියලා පින්තූරයක් ගන්නවා. දැන් වේදිකා තියෙනවා, ඒ පින්තූරේ ගත්ත ස්ථානය හරියට ම කියන්න පුළුවන්. එතනදී ඔයාට අවදානමක් එනවා,” ඔහු පැහැදිලි කළේ ය.

    මෙවැනි අවස්ථා පුද්ගලයින්ගේ පෞද්ගලික ආරක්ෂාව පවා අවදානමට ලක් කරන බව විශේෂඥවරයා අනතුරු ඇඟවීය.

    තොරතුරු ආරක්ෂණ ඉන්ජිනේරු තිනුරි තිසේරා ද ඊට එකඟ වෙමින් පැවසුවේ, මෙටාඩේටා අවභාවිත කිරීමේ හැකියාවක් ඉන් ලැබෙන බව ය.

    කෘත්‍රිම බුද්ධිය පරිශීලකයින්ගෙන් ලබා ගන්නා දත්ත ගබඩා කර ගන්නා ආකාරය හෙළි නොකරන බව අසේල වෛද්‍යාලංකාර පැවසීය.

    “අපි දන්නේ නැහැ ඒ විධියට ම ඒ පින්තූරය තියා ගන්නවා ද? කඩලා වෙන වෙන විදිහට තියා ගන්නවා ද? ඒ අයට දත්ත මධ්‍යස්ථාන ගොඩාක් තියෙනවා. ඒවා වාණිජ මේවලම් නේ. ඒ අයට කොහෙවත් කියලා නැහැ ඒවා හෙළි කරන්න කියලා,” ඔහු පැහැදිලි කළේ ය.

    පරිස්සම් වෙන්නේ කොහොම ද?

    ශ්‍රී ලංකා පරිගණක හදිසි ප්‍රතිචාර සංසදයේ තොරතුරු ආරක්ෂණ ඉන්ජිනේරු තිනුරි තිසේරා පෙන්වා දුන්නේ, මේ දක්වා ශ්‍රී ලංකාව තුළින් කෘත්‍රිම බුද්ධියට උඩුගත කරන ලද දත්ත අනවසරයෙන් ප්‍රසිද්ධියට පත් වීමන් සිදුව ඇති බව තම ආයතනයට වාර්තා වී නොමැති බව ය.

    “දැනට අපිට කිසි ම විදිහකින් වාර්තා වෙලා නැහැ AI ටූල් එකකට අප්ලෝඩ් කළාට පස්සේ, උදාහරණයක් විදිහට Gemini හරි, ChatGPT හරි අප්ලෝඩ් කළාට පස්සේ ඒවායින් ඩේටා ලීක් වෙලා,” ඇය පැවසුවා ය.

    නමුත් “ඉස්සරහට වෙන්න පුළුවන් හැකියාවක් තියෙනවා,” යැයි ඇය අනතුරු ඇඟවූවා ය.

    සයිබර් ආරක්ෂණ විශේෂඥ අසේල වෛද්‍යාලංකාර ද බීබීසී සිංහල වෙත අදහස් දක්වමින් පැවසුවේ, අනාගතයේදී ඇති විය හැකි අවදානම් තත්ත්ව ඉහළ බව ය.

    “මේවල තියෙන ප්‍රයෝජන වගේ ම අනෙක් පැත්තට තියෙන්නේ තමන්ගේ තමන්ගේ පර්සනල් ඩේටා අවදානමේ දාගන්න එක තමයි,” ඔහු පැවසීය.

    ඒ හේතුවෙන්, “පාවිච්චි කරනවා නම් ඒකෙ ප්‍රතිවිපාකත් බලාපොරොත්තුවෙන් කරන්න කියන එක තමයි දෙන්න පුළුවන් උපදෙස,” යැයි ඉන්ජිනේරුවරිය පෙන්වා දුන්නා ය.

    “අපිට 100%ක් ම ආරක්ෂිතයි කියලා තහවුරු කරන්න බැහැ, මොකද අපි ඩිජිටල් ලෝකයක ඉන්න නිසා.

    “නොමිලේ දෙන ටූල්ස් පාවිච්චි කරන කොට [අනතුරක් වීමේ] සම්භාවිතාව වැඩියි. ඒක එළියට ලීක් වෙන්න පුළුවන්. මොකද අපි දන්නේ නැහැ මේ දත්ත කොහෙද ගබඩා කර ගන්නේ, කොයි විදිහට ද ගබඩා කර ගන්නේ, ඒවා මොනවා විදිහට ද ප්‍රොසෙස් කරන්නේ කියලා. මොකද අපි ගන්නේ ෆ්‍රී සර්විස් එකක් නිසා.”

    නමුත් මුදල් අය කර කෘත්‍රිම බුද්ධි සේවා සපයන ඇතැම් වේදිකා මගින් පරිශීලක දත්ත අවභාවිත නොකරන බව සහතික කරන්නේ යැයි ඇය පැවසුවා ය.

    “ඒ නිසා ෆ්‍රී ඒවා පාවිච්චි කරද්දී පොඩ්ඩක් පරිස්සමින්,” ඉන්ජිනේරුවරිය අවධාරණය කළා ය.

    source: bbc.com

    https://www.bbc.com/sinhala/articles/c62n1d92y0ro

    RELATED ARTICLES

    LEAVE A REPLY

    Please enter your comment!
    Please enter your name here

    - Advertisment -
    Google search engine

    Most Popular

    Recent Comments