ඉරාන යුද්ධය ආරම්භ වූ දා සිට කෘත්රිම බුද්ධිය (AI) මඟින් නිර්මාණය කරන ලද අසත්ය වීඩියෝ, ඡායාරූප සහ පැරණි යුද දර්ශන සමාජ මාධ්ය ජාලාවල වේගයෙන් ප්රචාරය වෙමින් පවතින බව වාර්තා වේ. රාජ්ය මට්ටමින් තමන්ට වාසිදායක මතවාද ගොඩනැගීමට මෙන්ම, පුද්ගලික මට්ටමින් වැඩි ප්රේක්ෂක අවධානයක් දිනාගෙන මුදල් ඉපයීමේ අරමුණින් මෙම අසත්ය තොරතුරු ප්රචාරය කරන බව අනාවරණය වී තිබේ. කටාර්හි වයඹදිග විශ්වවිද්යාලයේ මාධ්ය විශ්ලේෂණ පිළිබඳ සහකාර මහාචාර්ය මාර්ක් ඕවන් ජෝන්ස් පෙන්වා දෙන්නේ, සැබෑ යුද බිමේ දර්ශන ලෙස පෙනී සිටින මෙම ව්යාජ නිර්මාණ මිලියන සංඛ්යාත ජනතාවක් නොමඟ යවන බවයි.
පහසුවෙන් සහ අඩු පිරිවැයකින් ලබාගත හැකි AI තාක්ෂණය නිසා මිසයිල ප්රහාර, සිවිල් වැසියන්ට සිදුවන හානි සහ ව්යාජ ප්රකාශ ඇතුළත් “දීප්ෆේක්” (Deepfake) වීඩියෝ සමාජ මාධ්ය තුළ ගලා එමින් පවතී. මෙමඟින් යුද්ධයේ සැබෑ තත්ත්වය පිළිබඳ මහජනතාව තුළ පවතින අවබෝධය සම්පූර්ණයෙන්ම වෙනස් වන අතර, එය යුද්ධයට සම්බන්ධ රටවල ජනතාවට දැඩි මානසික බලපෑමක් ඇති කිරීමට ද හේතු වේ. මේ හේතුවෙන් අදාළ රජයන් විසින් තොරතුරු පාලනය කිරීම සඳහා දැඩි පියවර ගැනීමට ද පෙළඹී ඇති අතර, යුද බිමේ සැබෑ යථාර්ථය සහ අන්තර්ජාලයේ පෙනෙන රූප රාමු අතර විශාල පරතරයක් නිර්මාණය වී තිබේ.














