වගකීම් සහගත AI — අවදානම් සහ පක්ෂපාතීත්වය
Level
ප්රවීණ
10.1 ඉගෙනුම් ඉලක්ක
මෙම කොටස අවසානයේ, ඔබේ අරමුණ වන්නේ:
විනයකින් තොරව AI භාවිතා කිරීමේ පැහැදිලි සහ පවතින අවදානම් හඳුනාගැනීම.
AI තුළ පක්ෂපාතීත්වය ක්රියාත්මක වන ආකාරය සරල, ප්රායෝගික වචනවලින් අවබෝධ කරගැනීම.
AI සහාය විය යුතු නමුත්, ඔබ සැමවිටම අවසාන පරීක්ෂාව බවට වන නියමය යෙදීම.
AI හි ආරක්ෂිත සහ සදාචාරාත්මක භාවිතය සඳහා වගකීම් සහගත පුරුදු වර්ධනය කරගැනීම.
10.2 වගකීම වැදගත් වන්නේ ඇයි?
මා මෙම කරුණ පැහැදිලිවම ප්රකාශ කළ යුතුය: AI යනු දෙබිඩි කඩුවකි. විනයකින් යුතුව භාවිතා කළහොත්, එය ඔබේ ඉගෙනීම සහ ඵලදායිතාවය වර්ධනය කරයි. නොසැලකිලිමත්ව භාවිතා කළහොත්, එය ඔබව වැරදි තොරතුරු වෙත යොමු කරනු ඇත, ඔබව නොමඟ යවනු ඇත, සහ ස්වාධීන චින්තනය සඳහා ඔබේම හැකියාව දුර්වල කරනු ඇත. AI වගකීම් විරහිතව භාවිතා කිරීම සුළු වරදක් පමණක් නොවේ; එය බුද්ධිමය කම්මැලිකමක් සහ සැලකිය යුතු පෞද්ගලික අවදානමකි.
10.3 ප්රධාන අවදානම්
ඔබ ප්රාථමික අවදානම් තුනක් පිළිබඳව දැනුවත් විය යුතුය. පළමුවැන්න වැරදි තොරතුරු ය. AI හට නිරපේක්ෂ විශ්වාසයකින් "මායා දර්ශනය වූ" පිළිතුරු නිර්මාණය කළ හැකිය. ඒත්තු ගැන්වෙන ලෙස ලියා ඇති අසත්ය කරුණක්, කිසිසේත්ම කරුණක් නොමැතිවාට වඩා භයානක ය. දෙවන අවදානම වන්නේ අධික ලෙස රඳා පැවතීමයි. ඔබ කියවීම සහ ලිවීමේ වෙහෙස මහන්සි වී වැඩ කිරීමට පෙර AI භාවිතා කිරීම, ඔබ වෙනුවෙන් සිතීමේ ඔබේ හැකියාව ඛාදනය කරයි. අවසාන වශයෙන්, පෞද්ගලිකත්ව කඩවීමේ අවදානමක් පවතී. ඔබ ටයිප් කරන සෑම ආදානයක්ම පද්ධතිය විසින් ගබඩා කරනු ලැබිය හැකිය. පෞද්ගලික විස්තර හෝ පෞද්ගලික දත්ත බෙදාගැනීම නොසැලකිලිමත් ක්රියාවකි.
10.4 පක්ෂපාතීත්වය සරලව පැහැදිලි කිරීම
AI පුහුණු කරනු ලබන්නේ මානව දත්ත මතය. මානව දත්තවල ඓතිහාසික සහ සමාජීය පක්ෂපාතීත්වයන් අඩංගු වේ. එබැවින්, AI ප්රතිදානයේ පක්ෂපාතීත්වය අඩංගු වනු ඇත. මෙය හැකියාවක් නොවේ; එය නිශ්චිතය.
මගේ පෙන්ගුයින් උපමාව සලකා බලන්න. 95%ක් පරවියන් සහ 5%ක් පමණක් පෙන්ගුවින් සතුන් සිටින පක්ෂීන් පිළිබඳ දත්ත කට්ටලයක් මත පුහුණු වූ AI එකක් සිතන්න. එහි දත්තවල ඇති අතිමහත් රටාව මත පදනම්ව, AI විසින් පෙන්ගුයින් සතෙකුට පියාසර කළ හැකි බවට වැරදි ලෙස පුරෝකථනය කළ හැකිය, මන්ද එහි දත්ත කට්ටලයේ ඇති අතිමහත් බහුතරයක් පක්ෂීන්ට පියාසර කළ හැකි බැවිනි. පක්ෂපාතීත්වය ක්රියා කරන්නේ මෙසේය: AI පිළිබිඹු කරන්නේ වෛෂයිකව සත්ය දේ නොව, එය "බොහෝ විට දැක ඇති" දේය.
10.5 වගකීමේ නියමය
මගේ වගකීමේ නියමය නිරපේක්ෂ වන අතර එය අභ්යන්තරීකරණය කළ යුතුය. AI යනු සහායකයෙකි, කිසි විටෙකත් බලධාරියෙකු නොවේ. ඕනෑම කරුණක් හෝ සංඛ්යාවක් පිළිබඳ ඔබේ අවසාන පරීක්ෂාව සැමවිටම මානව විය යුතුය. ඔබ ඉදිරිපත් කරන ඕනෑම කාර්යයක අවසාන අනුවාදය සැමවිටම ඔබේම විය යුතුය. ඔබේ කාර්යය සඳහා වන අවසාන වගකීම යන්ත්රයකට පැවරිය නොහැක. මෙය සාකච්ඡා කළ නොහැකි කරුණකි.
10.6 ආරක්ෂිත සහ අනාරක්ෂිත භාවිත වගුව
වගකීම් සහගත සහ වගකීම් විරහිත භාවිතය අතර වෙනස පැහැදිලි විය යුතුය.
ආරක්ෂිත AI භාවිතය (ඔබ පාලනයේ සිටී)
අනාරක්ෂිත AI භාවිතය (AI පාලනයේ සිටී)
ඔබේම ලිඛිත සටහන් සාරාංශ කිරීම.
ගෙදර වැඩ සඳහා සම්පූර්ණ පිළිතුරු පිටපත් කිරීම.
ඔබේ රචනාවේ ව්යාකරණ පරීක්ෂා කිරීම.
AI මගින් ජනනය කරන ලද පෙළ ඔබේම ලෙස ඉදිරිපත් කිරීම.
ස්වයං-පරීක්ෂණ සඳහා ප්රශ්න ජනනය කිරීම.
කියවීම සහ ලිවීමේ ක්රියාවලිය සම්පූර්ණයෙන්ම මඟ හැරීම.
උ/පෙළ සහ TVET සැසඳීමක් කෙටුම්පත් කර ගැනීම.
පෞද්ගලික දත්ත (නම, හැඳුනුම්පත් අංකය, ස්ථානය) ටයිප් කිරීම.
10.7 ක්රියාකාරකම: අවදානම හඳුනාගන්න
පහත අවස්ථා තුන කියවන්න. ඔබේ කාර්යය වන්නේ ඒ සෑම එකක්ම ආරක්ෂිත හෝ අනාරක්ෂිත ලෙස හඳුනා ගැනීමයි.
ශිෂ්යයෙකු තමාට ශිෂ්යත්ව රචනාවක් කෙටුම්පත් කර ගැනීම සඳහා තම පෞද්ගලික හැඳුනුම්පත AI වෙත උඩුගත කරයි.
ශිෂ්යයෙකු මාතෘකාව පිළිබඳව තම සටහන් ලියා අවසන් වූ පසු, මයිටෝසිස් අවධීන් පිළිබඳව තමාගෙන් ප්රශ්න අසන ලෙස AI ගෙන් ඉල්ලා සිටී.
ශිෂ්යයෙකු AI හි පිළිතුරක් පිටපත් කර එය සෘජුවම තම ඉංග්රීසි විභාග ප්රශ්න පත්රයට අලවයි.
10.8 ස්වයං පරීක්ෂාව
නොසැලකිලිමත්ව AI භාවිතා කිරීමේ ප්රධාන අවදානම් තුන මොනවාද?
මගේ පෙන්ගුයින් උපමාව තනි වාක්යයකින් පැහැදිලි කරන්න.
ඉගෙනීම සඳහා AI භාවිතා කරන විට, සැමවිටම අවසාන පරීක්ෂාව කවුද?
10.9 ප්රධාන නිගමනය
AI යනු බලවත් මෙවලමකි, නමුත් වගකීමෙන් තොර බලය අනතුරකි. ඔබේ නියැලීමේ නියමය පැහැදිලි විය යුතුය: AI සහාය දෙයි, නමුත් ඔබ සැමවිටම අවසාන පරීක්ෂාවයි.
