چهارشنبه 06 اسفند 1404
Wednesday, 25 February 2026

واکاوی «خِرَدکُشی دیجیتال»؛ امکان ترور هدفمند با فناوری

خبرگزاری مهر چهارشنبه 06 اسفند 1404 - 11:44
همایش «هوش مصنوعی برای خردکُشی» به‌عنوان یک نشست تخصصی و میان‌رشته‌ای امروز در دانشگاه علم و صنعت ایران به بررسی کاربست‌های پرخطر هوش مصنوعی در عرصه‌های امنیتی و سیاسی پرداخت.

به گزارش خبرنگار مهر، محور اصلی این رویداد، تحلیل ادعای استفاده از فناوری‌های پیشرفته و سامانه‌های مبتنی بر هوش مصنوعی در ترور دانشمندان و تضعیف سرمایه‌های علمی کشورهاست؛ موضوعی که از آن به‌عنوان نمونه‌ای از «خِرَدکُشی» در عصر فناوری یاد می‌شود.

خیزش در برابر خردکشی تلاشی برای بازگرداندن علم به مسیر خدمت به بشریت است

میثم فرج‌اللهی، استاد دانشگاه علم و صنعت ایران و عضو هیئت اجرایی همایش «خیزش در برابر خردکشی»، با اشاره به تحولات خردادماه کشور و ترور جمعی از دانشمندان و اساتید دانشگاه، از شکل‌گیری حرکتی خودجوش از سوی استادان دانشگاه‌های کشور خبر داد.

وی اظهار کرد: پس از اتفاقاتی که در خردادماه رخ داد و تعدادی از دانشمندان و اساتید دانشگاه توسط آنچه استکبار جهانی خوانده می‌شود مورد تهاجم و ترور قرار گرفتند، جمعی از اساتید دانشگاه‌های کشور به صورت خودجوش حرکتی را با عنوان "خیزش در برابر خردکشی" آغاز کردند. هدف این خیزش آن بود که نخبگان جامعه بین‌الملل را با خود همراه کند و این پرسش اساسی را مطرح سازد که چرا علم و فناوری، که باید در خدمت رفاه و آسایش بشر باشد، امروز به ابزاری برای ترور، نسل‌کشی و تهاجم به کشورها تبدیل شده است.

فرج‌اللهی با اشاره به برگزاری نخستین رویداد بین‌المللی این جریان افزود: برای نخستین بار در کشور، همایش بین‌المللی «خیزش در برابر خردکشی» در ۱۷ مهرماه در مرکز تحقیقات فیزیک نظری و ریاضیات برگزار شد. در این رویداد، مهمانان، سخنرانان و ارائه‌دهندگان مقالاتی از بیش از ۳۰ کشور جهان حضور داشتند و این همایش به نظر می‌رسد نقطه آغازی برای شکل‌گیری نهضتی در جامعه نخبگانی دنیا در برابر نظمی باشد که از علم و فناوری برای تهدید و ترور استفاده می‌کند.

به گفته وی، آن همایش سرآغازی برای تداوم این حرکت از طریق برگزاری نشست‌های تخصصی بوده است. قرار بر این شد که نشست‌های تخصصی با تمرکز بر حوزه‌های فناورانه برگزار شود؛ به‌ویژه در زمینه هوش مصنوعی که فناوری فراگیر عصر حاضر است. متأسفانه این فناوری به‌جای آنکه در خدمت رفاه بشر باشد، در مواردی در خدمت ترور قرار گرفته و شواهد متعددی وجود دارد که در جنگ ۱۲ روزه تحمیلی علیه جمهوری اسلامی ایران از این فناوری استفاده شده و دانشمندان ما با بهره‌گیری از آن مورد تهاجم قرار گرفته‌اند.

عضو هیئت اجرایی همایش تصریح کرد: نشست امروز، نخستین نشست تخصصی پس از همایش بین‌المللی مهرماه است و امیدواریم این روند ادامه‌دار باشد. در ادامه نیز فناوری‌های مختلف مورد بررسی و تحلیل قرار خواهند گرفت تا این خیزش در سطح جامعه بین‌المللی با هدایت اساتید دانشگاه تداوم یابد.

فرج‌اللهی همچنین با قدردانی از حضور رسانه‌ها گفت: برنامه امروز به‌صورت زنده از برخی رسانه‌ها پخش خواهد شد و امیدواریم این همراهی رسانه‌ای نیز استمرار داشته باشد.

خیزش فرزانگان علیه خردکشی تلاشی برای مقابله با سوءاستفاده از علم در مسیر سلطه است

علیرضا سالاری، عضو هیئت اجرایی همایش در ادامه با انتقاد از آنچه روند مستمر ترور دانشمندان در دهه‌های اخیر خواند، تأکید کرد: در برابر سوءاستفاده از دستاوردهای علمی برای سلطه و کشتار، جامعه دانشگاهی باید مسئولانه وارد میدان شود.

وی در سخنانی با اشاره به تحولات دهه‌های گذشته اظهار داشت: در مقابله با قدرت‌یابی ملت‌های تحت سلطه، نقاب‌های پیشین آزادی‌خواهی آمریکا و نیروی نیابتی آن یعنی رژیم صهیونیستی فرو افتاده و طی حدود ۸۰ سال گذشته در ادامه رویکردهای تفتیش‌گرایانه، در فلسطین، عراق، سوریه، یمن و دیگر کشورهای اسلامی شاهد ترور گسترده اندیشمندان و فرزانگان بوده‌ایم.

سالاری با اشاره به حوادث خردادماه گذشته افزود: آخرین و شنیع‌ترین جلوه این روند، حمله و کشتار شماری از فرزانگان ایرانی بود که به گفته وی، در نیمه‌شب و در کنار خانواده‌هایشان هدف قرار گرفتند. همچنین زیرساخت‌های علمی و پژوهشی ملت‌ها نیز مورد حمله قرار گرفته است.

عضو هیأت اجرایی همایش با به‌کار بردن اصطلاح «خردکشی» یا «سوفیساید» برای این اقدامات، تصریح کرد: این جنایات به امری عادی و حتی مشروع در نظم بین‌المللی موجود تبدیل شده و نهادهای برآمده از این نظم نیز واکنش مؤثری نسبت به آن نشان نداده‌اند.

به گفته وی، در مهرماه گذشته و به همت جمعی از دانشگاهیان و فرهیختگان، همایشی با عنوان «خیزش فرزانگان علیه خردکشی» برگزار شد که هدف آن، پاسداشت یاد دانشمندان جان‌باخته و طراحی نظمی علمی و فناورانه مبتنی بر خردورزی و اخلاق انسانی بود.

سالاری ادامه داد: شرکت‌کنندگان در این همایش، ترور دانشمندان را اقدامی ناشی از هراس از پیشرفت ملت‌های بیدار دانستند که با سوءاستفاده از مهم‌ترین دستاوردهای علمی بشر، از جمله هوش مصنوعی، فناوری‌های هوافضا و ارتباطات انجام می‌شود. آنان همچنین تأکید کردند که کشتار دانشمندان، علاوه بر چپاول منابع کنونی ملت‌ها، با هدف مصادره آینده آنان صورت می‌گیرد.

وی با بیان اینکه این نتیجه‌گیری مسئولیتی سنگین بر دوش جامعه علمی جهان می‌گذارد، گفت: دانشمندان باید ضمن محکومیت صریح این روند، برای جلوگیری از حاکمیت رویکردهای قدرت‌طلبانه در مراکز علمی و جایگزینی اخلاق انسانی به جای سلطه‌جویی تلاش کنند.

سالاری همچنین به وضعیت برخی مناطق از جمله غزه و دیگر کشورهای اسلامی اشاره کرد و مدعی شد: نظم استعماری و استبدادی حاکم، نه‌تنها حق آزادی ملت‌ها بلکه حق اندیشیدن و حتی حق حیات آنان را نیز برنمی‌تابد.

وی با تأکید بر ضرورت هم‌افزایی دانشگاهیان جهان تصریح کرد: این همایش از همه دانشمندان آزاده دعوت می‌کند تا در برابر هرگونه بهره‌کشی از دستاوردهای علمی برای تداوم کشتارها بایستند و برای شکل‌دهی به نظمی آکادمیک و فناورانه عادلانه تلاش کنند؛ نظمی که در آن علم در خدمت کرامت، پیشرفت و آزادگی همگانی باشد.

عضو هیئت اجرایی همایش در پایان با اشاره به برگزاری نشست تخصصی با محوریت هوش مصنوعی گفت: گردهمایی امروز فرصتی برای هم‌اندیشی درباره این پرسش اساسی است که چگونه می‌توان از تبدیل هوش مصنوعی ـ به‌عنوان یکی از عالی‌ترین دستاوردهای خرد انسانی ـ به ابزاری علیه خود دانشمندان جلوگیری کرد. همچنین بررسی سوءاستفاده از داده‌های ملت‌ها برای آموزش این فناوری و راه‌های مقابله با آن، از دیگر محورهای مورد توجه این نشست است.

هوش مصنوعی همزمان فرصت قدرت‌ساز و تهدید خرد انسانی است

جلال دهقانی فیروزآبادی، دبیر شورای راهبردی امور خارجه، در نشست تخصصی «هوش مصنوعی و خردکشی» با تأکید بر مسئولیت علم و عالمان در عصر فناوری‌های نوین گفت: علمِ رها از اخلاق و مسئولیت می‌تواند خود به ابزاری برای کشتار تبدیل شود.

وی در آغاز سخنان خود با اشاره به مفهوم «خرد» اظهار داشت: خرد را می‌توان هم به معنای علم و هم به معنای خردمندان در نظر گرفت؛ در بسیاری از موارد، هر دو هدف قرار می‌گیرند؛ هم انسان‌ها و هم عالمان.

دهقانی‌فیروزآبادی با اشاره به یکی از پیش‌فرض‌های عصر مدرن افزود: از عصر روشنگری این تصور وجود داشت که هرچه علم پیشرفت کند، امنیت انسان بیشتر می‌شود؛ اما تجربه تاریخی نشان داد علمِ عاری از اخلاق و مسئولیت نه‌تنها امنیت‌آفرین نیست، بلکه می‌تواند به ابزار تهدید تبدیل شود. بنابراین هم علم مسئول است و هم عالمان.

سوءاستفاده تاریخی از علم

دبیر شورای راهبردی امور خارجه با مرور نمونه‌هایی از تاریخ معاصر تصریح کرد: بسیاری از دانشمندان برای رفاه و آسایش بشر علم تولید کردند، اما دیگران از آن سوءاستفاده کردند؛ از علوم هسته‌ای که به بمب اتم انجامید تا دانش بیوشیمی که به سلاح‌های شیمیایی و بیولوژیک و حتی فناوری‌های ژنتیکی تسلیحاتی منجر شد. علم به همان اندازه که می‌تواند رفاه و توسعه ایجاد کند، می‌تواند خطرناک باشد.

وی یادآور شد که حتی در غرب نیز نخستین حرکت‌های اعتراضی علیه تسلیحاتی‌شدن علم، از سوی خود دانشمندان شکل گرفت؛ از جمله ابتکاراتی که به کنفرانس‌های پاکواش و بعدها به شکل‌گیری معاهدات محدودکننده سلاح‌های هسته‌ای انجامید.

ژئوپلیتیک هوش مصنوعی و قدرت داده‌بنیاد

دهقانی‌فیروزآبادی با تأکید بر اهمیت راهبردی هوش مصنوعی گفت: هوش مصنوعی یکی از مهم‌ترین دستاوردهای بشر است که می‌تواند در خدمت امنیت و تعالی انسان باشد؛ اما همزمان خود به عنصر قدرت ملی تبدیل شده است. امروز از ژئوپلیتیک هوش مصنوعی سخن گفته می‌شود؛ یعنی رقابت قدرت‌های بزرگ برای تولید، توزیع و کنترل داده.

وی افزود: نظام بین‌الملل آینده بر پایه قدرت داده‌بنیاد شکل خواهد گرفت و برخی معتقدند داده در قرن بیست‌ویکم همان نقشی را ایفا می‌کند که نفت در قرن بیستم داشت. همچنین هوش مصنوعی را باید بخشی از سومین انقلاب صنعتی ـ نظامی دانست.

به گفته او، خطر هوش مصنوعی در برخی ابعاد حتی از تسلیحات هسته‌ای نیز بیشتر است، زیرا امکان هدف‌گیری دقیق و ترورهای نقطه‌ای را فراهم می‌کند و مقابله با آن نیز دشوارتر است.

چالش‌های هوش مصنوعی برای خرد انسانی

دبیر شورای راهبردی امور خارجه در ادامه سلطه فناوری و داده بر انسان در سطح فردی و جمعی، تضعیف عاملیت، اراده و قدرت تصمیم‌گیری انسان، کاهش قدرت معناسازی، تفکر نقاد و خلاقیت انسانی تقویت عقلانیت صرفاً ابزاری مبتنی بر محاسبه هزینه ـ فایده،امکان هک شناختی و دستکاری افکار عمومی و خلق «فراواقعیت» و تضعیف روابط انسانی را برخی آسیب های هوش مصنوعی دانست و هشدار داد: اگر انسان را موجودی ناطق و عاقل بدانیم، هر روندی که به تضعیف عقلانیت بینجامد، نوعی زوال خرد انسانی خواهد بود.

خطر آپارتاید علمی و تسلیحاتی‌شدن هوش مصنوعی

دهقانی‌فیروزآبادی با اشاره به احتمال ایجاد انحصار در حوزه هوش مصنوعی گفت: همان‌گونه که در حوزه هسته‌ای شاهد شکل‌گیری رژیم‌های محدودکننده و تبعیض‌آمیز بودیم، ممکن است در حوزه هوش مصنوعی نیز نوعی آپارتاید علمی و رژیم‌های تحمیلی قدرت‌محور شکل گیرد.

وی تسلیحاتی‌شدن هوش مصنوعی، تولید سلاح‌های خودمختار و استفاده از این فناوری در جنگ‌های خودکار را از مهم‌ترین تهدیدها برشمرد و افزود: خودکارسازی جنگ و به‌کارگیری هوش مصنوعی برای ترور، از جمله مخاطرات جدی است که باید مورد توجه جامعه علمی قرار گیرد.

دبیر شورای راهبردی امور خارجه با تأکید بر نقش پیشگام جامعه دانشگاهی گفت: قانونمندکردن استفاده ایمن از هوش مصنوعی ضروری است، اما این قوانین باید به‌صورت دموکراتیک و با مشارکت همه کشورها تدوین شود، نه در قالب رژیم‌های تحمیلی.

وی پیشنهاد داد علاوه بر سازوکارهای رسمی بین‌المللی، تشکل‌های علمی و دانشگاهیِ فراملی نیز برای مقابله با سوءاستفاده و تروریسم مبتنی بر هوش مصنوعی شکل گیرند؛ الگویی مشابه جنبش‌های علمی ضدتسلیحاتی در دهه‌های گذشته.

دهقانی‌فیروزآبادی در پایان تأکید کرد: ممنوعیت تروریسم هوش مصنوعی، منع به‌کارگیری آن علیه غیرنظامیان و مراکز علمی، و مقابله با تبعیض و آپارتاید علمی باید در دستور کار جامعه علمی جهان قرار گیرد. بالاترین سطح خشونت علیه علم، حذف فیزیکی دانشمند است و این مسئولیت دانشمندان را برای صیانت از علم و اخلاق دوچندان می‌کند.

آینده نظم جهانی در رقابت داده‌ها و الگوریتم‌ها رقم می‌خورد

حامد خسروانی، کارشناس و متخصص فناوری و هوش مصنوعی، در همایش «هوش مصنوعی و خردکشی» با تأکید بر ضرورت مواجهه عمیق و فلسفی با پدیده‌های نوظهور گفت: برای فهم درست هوش مصنوعی باید آن را از چهار منظر هستی‌شناسی، معرفت‌شناسی، انسان‌شناسی و فرجام‌شناسی مورد بررسی قرار داد.

وی با بیان اینکه هر پدیده نوینی در عرصه سیاست نیازمند شناخت دقیق ابعاد وجودی خود است، اظهار داشت: پیش از آنکه بپرسیم چه چیزی می‌توانیم بسازیم، باید بپرسیم قرار است در چه جهانی بسازیم و جایگاه انسان و ماشین در آن جهان چیست.

خسروانی در تبیین بُعد معرفت‌شناختی هوش مصنوعی افزود: مسائلی مانند قصد، ادراک و ریشه‌مندی معنا مطرح می‌شود. آیا سامانه‌های هوش مصنوعی واقعاً درکی از جهان دارند یا صرفاً بر مبنای الگوهای آماری خروجی تولید می‌کنند؟ وقتی یک سیستم می‌گوید این رنگ قرمز است، آیا تجربه‌ای از سرخی دارد یا فقط یک توکن پردازشی را بازتولید می‌کند؟ تفاوت میان معرفت انسانی و پردازش ماشینی دقیقاً در همین نقطه آشکار می‌شود.

وی با اشاره به بحث «کوالیا» تصریح کرد: تجربه پدیدارشناختی درد یا آگاهی انسانی قابل تقلیل به محاسبه صرف نیست و اینجا باید مرز میان ذهن انسانی و ماشین را به‌درستی بشناسیم.

این متخصص فناوری در بخش انسان‌شناسی سخنان خود تأکید کرد: مسئله این نیست که هوش مصنوعی جای انسان را می‌گیرد یا نه؛ بلکه باید تعریف خود از انسان را بازنگری کنیم. انسان صرفاً یک ماشین محاسباتی نیست و دارای ساحت‌های متعدد معرفتی و معنوی است. حتی پیشرفته‌ترین سامانه‌های هوش مصنوعی تنها بخش محدودی از توان ذهنی انسان را پوشش می‌دهند.

او در ادامه، با اشاره به پروژه مدرنیته در ریاضی‌سازی جهان، خاطرنشان کرد: هوش مصنوعی این پروژه را به سطح بالاتری رسانده است؛ اما پرسش اساسی این است که آیا سیاستِ مبتنی بر بهینه‌سازی عددی و مدیریت داده‌ها می‌تواند همچنان فضیلت، معنا و سعادت انسانی را محقق کند؟

ظهور «لیویاتان دیجیتال» و تمرکز قدرت

خسروانی با اشاره به تمرکز قدرت در زیرساخت‌های داده‌ای و شرکت‌های فناور گفت: امروز با نوعی لیویاتان دیجیتال مواجه هستیم. قدرت در مراکز پردازش داده و شبکه‌های فناورانه متمرکز شده و پرسش اصلی این است که چگونه می‌توان این قدرت را محدود و پاسخگو کرد.

وی تصریح کرد: مسئله ما نفی استفاده از هوش مصنوعی نیست؛ استفاده از آن ضروری است. پرسش این است که چه کسی، با چه غایتی و تحت چه محدودیتی از آن بهره می‌برد. اگر فناوری، فرجام سیاست را تعیین کند، امر سیاسی به مدیریت داده تقلیل می‌یابد؛ اما اگر سیاست، جهت فناوری را تعیین کند، هوش مصنوعی می‌تواند در خدمت آزادی، عدالت و معنا قرار گیرد.

این کارشناس هوش مصنوعی با اشاره به تحولات ژئوپلیتیکی افزود: جهان در حال عبور از نظم ۸۰ ساله مبتنی بر دولت ـ ملت و نهادهای کلاسیک بین‌المللی به نظمی شبکه‌ای، داده‌محور و فناورانه است. در این گذار، هوش مصنوعی صرفاً ابزار نیست؛ بلکه موتور معماری قدرت در قرن بیست‌ویکم است.

وی از شکل‌گیری مفهوم «قدرت ترکیبی» سخن گفت و توضیح داد: قدرت آینده ترکیبی از سخت‌افزار، زیرساخت فناورانه و قدرت نرم دیجیتال خواهد بود. اسناد امنیتی قدرت‌های بزرگ نیز نشان می‌دهد که هوش مصنوعی به یکی از محورهای اصلی رقابت ژئوپلیتیکی تبدیل شده و مرزهای سایبری و حاکمیت داده‌ها اهمیتی بیش از مرزهای جغرافیایی یافته‌اند.

نقد سوءاستفاده امنیتی از فناوری‌های دیجیتال

خسروانی با انتقاد از آنچه بهره‌گیری ترکیبی از ابزارهای اطلاعاتی و دیجیتال برای هدف‌گیری دانشمندان ایرانی خواند، اظهار داشت: ادعاهای مربوط به آزادی اطلاعات و امنیت ارتباطات زمانی بی‌اعتبار می‌شود که همان زیرساخت‌ها برای شناسایی، هدف‌گیری و عملیات دقیق مورد سوءاستفاده قرار گیرد.

وی به برخی ابزارهای جاسوسی شناخته‌شده در فضای رسانه‌ای اشاره کرد و گفت: امروز فناوری‌های نفوذ به شبکه‌های مخابراتی، جمع‌آوری کلان‌داده و تحلیل مبتنی بر یادگیری عمیق می‌تواند به شناسایی دقیق اهداف انسانی منجر شود. ترکیب این ابزارها با سامانه‌های تحلیلی، امکان ترور هدفمند را افزایش می‌دهد.

مسئولیت جامعه علمی در بزنگاه تاریخی

خسروانی در پایان تأکید کرد: در این بزنگاه تاریخی، جامعه علمی که خود مولد دانش و فناوری است، می‌تواند با طراحی چارچوب‌های حقوقی و فناورانه جدید، از شکل‌گیری چرخه‌های ناسالم قدرت جلوگیری کند. کشورها و جوامع مستقل با تجمیع ظرفیت‌های علمی خود می‌توانند به سوی ایجاد یک چرخه امن، اخلاق‌مدار و عادلانه برای تولید و بهره‌برداری از فناوری حرکت کنند.

وی خاطرنشان کرد: هوش مصنوعی می‌تواند ابزار سلطه باشد یا ابزار رهایی؛ این بستگی دارد که چه نظمی آن را هدایت کند و چه اراده‌ای بر آن حاکم باشد.

منبع خبر "خبرگزاری مهر" است و موتور جستجوگر خبر تیترآنلاین در قبال محتوای آن هیچ مسئولیتی ندارد. (ادامه)
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت تیترآنلاین مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویری است، مسئولیت نقض حقوق تصریح شده مولفان از قبیل تکثیر، اجرا و توزیع و یا هرگونه محتوای خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.