-
تاریخ انتشار: 1402/01/29 08:25
هوش مصنوعی
کد خبر: 38805

هشدار جدی در مورد هوش مصنوعی | هوش مصنوعی جهان را تسخیر می کند ؟

جزئیات جدید از اخطار های جالب در مورد هوش مصنوعی را در این مطلب بخوانید

به گزارش رصدورزشی : هوش مصنوعی حسابی خبرساز شده است . بسیاری از صاحب نظران هشدار هایی در مورد هوش مصنوعی داشته اند . بسیاری معتقد هستند آینده جهان را هوش مصنوعی تعیین خواهد کرد .

مسابقه تسلیحاتی جدید در عرصه فناوری فاقد هرگونه قانونی می‌باشد و نرده‌های محافظ کمی دارد. یکی از فرماندهان سابق نیروی هوایی آمریکا می‌گوید: به یاد داشته باشید که دشمن از فرصت استفاده می‌کند.

ایکل هرش؛ روزنامه نگار امریکایی و معاون سردبیر نشریه «فارین پالسی» است. او سردبیر سابق نشریه «پولیتیکو» بوده است. او برنده جوایز متعددی در حوزه روزنامه نگاری و خبرنگاری شده است از جمله جایزه باشگاه مطبوعات خارج از کشور در سال ۲۰۰۱ میلادی و برنده جایزه نشریه ملی برای بهترین گزارش نشریه نیوزویک در پوشش خبری تروریسم.

زمانی که صحبت از هوش مصنوعی پیشرفته به میان می‌آید بخش عمده بحث بر این موضوع متمرکز شده که آیا کارکنان یقه سفید اکنون با تهدید انقراض روبه رو شده‌اند؟؛ مشابه تهدیدی که طبقه کارگر زمانی از سوی ربات‌ها با آن مواجه شده بود. در حالی که محتمل است هوش مصنوعی بتواند بخشی از آن چه وکلا، حسابداران، معلمان، برنامه نویسان و روزنامه نگاران انجام می‌دهند را تکرار کند، باز هم این نقطه‌ای نیست که مهم‌ترین انقلاب رخ دهد.

تازه‌ترین هوش مصنوعی که به عنوان ترانسفورماتور‌های از پیش آموزش‌دیده مولد (GPT) شناخته می‌شود، نوید تغییر کامل ژئوپولیتیک جنگ و بازدارندگی را می‌دهد. جی پی تی این کار را به شیوه‌هایی انجام می‌دهد که آرامش بخش نیست.

این فناوری می‌تواند جنگ را کم‌تر کشنده سازد و احتمالا بازدارندگی را تقویت کند. با گسترش چشمگیر نقش پهپاد‌های هدایت شده با هوش مصنوعی در نیرو‌های سه گانه ارتش، می‌توان از جان انسان‌ها محافظت کرد. با این وجود، در حال حاضر پنتاگون در حال آزمایش بات‌های هوش مصنوعی است که می‌توانند با جت جنگنده اف -۱۶ اصلاح شده پرواز کنند و روسیه نیز خودرو‌های تانک مانند خودران را آزمایش کرده است.

چین عجله دارد تا سیستم‌های هوش مصنوعی خود را راه اندازی کند و اثربخشی پهپاد‌های مسلح نیز در سال‌های آینده افزایش خواهد یافت. یکی از بزرگ‌ترین تلاش‌ها اگرچه هنوز نوپاست پیشبرد هوش مصنوعی در  برنامه محرمانه نیروی هوایی ایالات متحده، نسل بعدی سلطه هوایی می‌باشد که بر اساس آن حدود ۱۰۰۰ فروند پهپاد جنگی "وینگمن" به نام هواپیما‌های رزمی مشارکتی در کنار ۲۰۰ هواپیمای خلبان عمل می‌کنند.

"داگلاس شاو" مشاور ارشد ابتکار عمل تهدید هسته‌ای می‌گوید: "من به راحتی می‌توانم آینده‌ای را تصور کنم که در آن تعداد پهپاد‌ها بسیار بیش‌تر از افراد نیرو‌های مسلح باشند".

به گفته "چارلز والد" ژنرال بازنشسته نیروی هوایی ایالات متحده این یک عامل افزایش دهنده نیرو خواهد بود. یکی از بزرگترین مشکلات در حال حاضر جذب نیرو است.

از سوی دیگر، نرم افزار مبتنی بر هوش مصنوعی می‌تواند قدرت‌های بزرگ را وادار کند که زمان تصمیم گیری خود را به جای ساعت‌ها یا روز‌ها به چند دقیقه کاهش دهند. آنان ممکن است بیش از حد به ارزیابی‌های استراتژیک و تاکتیکی هوش مصنوعی وابسته باشند؛ حتی زمانی که صحبت از جنگ هسته‌ای به میان می‌آید. "هربرت لین" از دانشگاه استنفورد می‌گوید خطر این است که تصمیم گیرندگان می‌توانند به تدریج به هوش مصنوعی جدید به عنوان بخشی از فرماندهی و کنترل تسلیحات تکیه کنند، زیرا این هوش مصنوعی با سرعتی بسیار بیش‌تر از انسان‌ها عمل می‌کند.

"جیمز جانسون" از دانشگاه آبردین در اسکاتلند در کتابی که در سال جاری با عنوان "هوش مصنوعی و بمب" چاپ شد سناریوی یک جنگ هسته‌ای تصادفی در دریای چین شرقی در سال ۲۰۲۵ میلادی را ترسیم می‌کند که توسط اطلاعات مبتنی بر هوش مصنوعی  و توسط بات‌های مجهز به هوش مصنوعی، دیپ فیک‌ها (جعل عمیق) و عملیات پرچم دروغین تشدید می‌شود.

لین، کارشناس امنیت سایبری می‌گوید: "وقتی مردم باور می‌کنند که ماشین‌ها در حال فکر کردن هستند احتمالا کار‌های دیوانه وار انجام می‌دهند".

در گزارشی که در اوایل فوریه منتشر شد انجمن کنترل تسلیحات اعلام کرد که هوش مصنوعی و سایر فناوری‌های جدید مانند موشک‌های مافوق صوت می‌توانند منجر به "مبهم کردن تمایز حمله متعارف و هسته ای" شوند. در این گزارش آمده است که بهره برداری از فناوری‌های نوظهور به منظور استفاده نظامی با سرعتی بسیار سریع‌تر از  ارزیابی خطرات آن و ایجاد محدودیت‌هایی برای استفاده پیش می‌رود. بنابراین، کاهش سرعت تسلیحات مبتنی بر فناوری ها، سنجش دقیق خطرات در انجام این کار و اعمال محدودیت‌های معنادار در استفاده نظامی ضروری می‌باشد".

مقام‌های امریکایی گفته اند که این کار را انجام می‌دهند، اما ممکن است در مسیری پرخطر حرکت کنند. وزارت دفاع امریکا در ژانویه سال جاری دستورالعمل خود را در مورد سیستم‌های تسلیحاتی شامل استفاده از هوش مصنوعی به روز کرد و اعلام نمود که در توسعه و استقرار سیستم‌های تسلیحاتی خودمختار باید از نیروهای انسانی استفاده شود.

با این وجود، پنتاگون در همان زمان در حال آزمایش بود که در یکپارچه‌سازی تصمیم گیری از همه شاخه‌های خدماتی و دستورات چندگانه رزمی از هوش مصنوعی بهره ببرد. با توجه به این که دولت بایدن صادرات فناوری پیشرفته به چین به ویژه نیمه هادی‌های پیشرفته را سرکوب می‌کند که پیشتازی فعلی ایالات متحده در هوش مصنوعی حفظ شود، پنتاگون احتمالا این تلاش‌ها را تسریع خواهد کرد.

"والد" می‌گوید: "من فکر می‌کنم هوش مصنوعی به اولویت‌بندی هدف کمک می‌کند. این موضوع می‌تواند در استراتژی در برابر چین مفید باشد، زیرا آن کشور  در مقایسه با ایالات متحده برای پل زدن در اقیانوس آرام، دارای برتری میدانی است که می‌تواند در پاسخ حمله به تایوان اختلال ایجاد کند".

"جک شاناهان" رئیس مرکز مشترک هوش مصنوعی پنتاگون گفته است در حالی که وزارت دفاع امریکا مشتاقانه به دنبال "ادغام قابلیت‌های هوش مصنوعی" می‌باشد این موضوع قطعا شامل فرماندهی و کنترل هسته‌ای نمی‌شود. شاناهان افزوده که می‌تواند نقش هوش مصنوعی را در تعیین استفاده از نیروی کُشنده تصور کند.

او می‌افزاید: "من به طور مستقیم به سراغ سیستم‌های تسلیحاتی خودمختار مرگبار نمی‌روم، اما می‌خواهم بگویم که از هوش مصنوعی در سیستم‌های تسلیحاتی خود استفاده خواهیم کرد تا به ما مزیت رقابتی بدهد. این برای نجات جان افراد و کمک به جلوگیری از وقوع جنگ اهمیت دارد".

پرسش این است که آیا چینی‌ها و روس‌ها به همراه سایر طرفین از قوانین مشابه واشنگتن پیروی خواهند کرد؟

والد می‌گوید: "من فکر نمی‌کنم که ایالات متحده در مسیر اجازه دادن به چیز‌هایی که کنترل انسانی بر روی آن وجود ندارد، حرکت کند، اما مطمئن نیستم که سایر طرفین این کار را انجام ندهند. من فکر می‌کنم بزرگ‌ترین نگرانی اجازه دادن به این دستگاه برای کنترل امور است".

نگرانی دیگر آن است که فناوری پیشرفته هوش مصنوعی می‌تواند به بازیگران سرکش مانند تروریست‌ها اجازه دهد تا در ساخت بمب‌های کثیف یا سایر وسایل کشنده دانش کسب کنند. هوش مصنوعی در حال حاضر توسط بازیگران بسیار بیشتری نسبت به دوران جنگ سرد به اشتراک گذاشته شده؛ به این معنی که می‌توان از آن برای شناسایی سایت‌های تسلیحات هسته‌ای استفاده کرد و مکان‌های سایت‌ها را پیدا کرد. "شاو" می‌گوید:"هوش مصنوعی پویایی پنهان کردن و یافتن چیز‌ها را تغییر خواهد داد".

آن چه واضح به نظر می‌رسد این است که یک مسابقه تسلیحاتی جدید هوش مصنوعی در حال انجام است و احتمالا کاری برای متوقف کردن آن نمی‌توان انجام داد.

"ایلان ماسک" و "استیو وزنیاک" در نامه‌ای سرگشاده‌ای در اواخر ماه مارس به همراه بیش از ۲۰۰۰ فرد پیشتاز و محقق در عرصه فناوری از آزمایشگاه‌های سراسر جهان خواستند تا آموزش جدیدترین مدل‌های هوش دیجیتال را که ممکن است منجر به فاجعه‌ای برای انسان شود متوقف سازند.

هشدار آنان در مورد تهدید وجودی ناشی از هوش مصنوعی برای جامعه انسانی، ممکن است تا حدی اغراق آمیز باشد. این نامه توسط برخی از کارشناسان هوش مصنوعی به عنوان متنی رعب انگیز قلمداد شد و به دلیل این که این توهم را ایجاد می‌کند که مدل‌ها همواره می‌توانند مانند فیلم‌های علمی – تخیلی از نوع ترمیناتور باشند، مورد انتقاد قرار گرفته است.

لین با اشاره به کاراکتر شرور هوش مصنوعی که تمدن بشری را در فیلم معروف ۱۹۸۴ نابود کرد می‌گوید: "این اسکای نت نیست، اما می‌تواند منجر به خطای انسانی بر اساس وابستگی بیش از حد شود. این مهماتی با هدایت دقیق در برابر هوش انسانی و عقلانیت انسانی است".

علاوه بر این، این ایده که دولت‌ها به خاطر ایمنی قصد داشته باشند توسعه هوش مصنوعی را به تاخیر بیاندازند موضوعی بعید به نظر می‌رسد. این نه تنها بدان خاطر است که بزرگترین شرکت‌های فناوری جهان درگیر رقابت با یکدیگر به خصوص در سیلیکون ولی شده اند، بلکه به این دلیل است که فناوری جدید در یک محیط بین المللی در حال گسترش می‌باشد. محیطی که ایالات متحده، چین و روسیه اکنون در آن درگیر فضایی تلخ به منظور منازعه برای تسلط هستند.

ژنرال "دیوید دپتولا" یکی از فرماندهان سابق نیروی هوایی آمریکا می‌گوید: "به یاد داشته باشید که دشمن از فرصت استفاده می‌کند. حتی اگر تحقیقات در حوزه هوش مصنوعی و توسعه آن در امور نظامی را متوقف کنیم چینی‌ها و تا حدی روس‌ها مطمئنا تحقیقات هوش مصنوعی خود را ادامه خواهند داد. هر دو کشور از خود علاقه چندانی برای پیگیری توافقات آتی کنترل تسلیحات نشان نداده اند".

نامه سرگشاده اخیر تازه‌ترین نمونه از چیزی بود که می‌توان آن یک وحشت گسترده نامید از زمانی که چت جی پی تی در اواخر پاییز گذشته در صحنه ظاهر شد و شرکت‌های بزرگ فناوری تلاش کردند تا سیستم‌های مبتنی بر هوش مصنوعی خود را با هوش رقابتی انسان معرفی کنند.

در نامه مذکور آمده که موضوعات مورد بحث برای تمدن بشری اساسی هستند: آیا باید اجازه دهیم ماشین‌ها کانال‌های اطلاعاتی ما را با تبلیغات و دروغ پر کنند؟ آیا باید تمام مشاغل را خودکار کنیم؟ آیا باید ذهن‌های غیرانسانی را پرورش دهیم در حالی که ممکن است در نهایت جایگزین ما شوند؟ آیا باید خطر از دست دادن کنترل تمدن خود را بپذیریم؟

با این وجود، نکته کلیدی این بود: اگر شرکت‌هایی که آزمایشگاه‌های هوش مصنوعی را تامین مالی می‌کنند با چنین تواقفی موافقت نمی‌کنند دولت‌ها باید وارد عمل شوند و یک مهلت قانونی وضع کنند.

با این وجود، "ولادیمیر پوتین" رئیس جمهور روسیه در سال ۲۰۱۷ میلادی اعلام کرده بود " کسی که در این حوزه (هوش مصنوعی) رهبر شود فرمانروای جهان خواهد بود". او هم چنین گفته بود که سرنوشت جنگ‌های آینده را پهپاد‌ها تعیین خواهند کرد.

شاو از ابتکار عمل تهدید هسته‌ای می‌گوید: "بزرگترین مشکل این است که ما واقعا در مورد آن چه که در آینده خواهد آمد گفتگو نمی‌کنیم".

بسیاری دیگر نیز با این نظر موافق هستند. سازمان پروژه‌های پژوهشی پیشرفتهٔ دفاعی (دارپا) در حال اجرای یک برنامه تحقیقاتی گسترده به نام AI Forward است. سخنگوی دارپا اخیرا اعلام کرده بود که سیستم‌های مبتنی بر هوش مصنوعی مولد مانند چت جی پی تی مسائل جدیدی را در مورد "اطمینانی که احتمالا برای تصمیم گیری مرگ یا زندگی به آن نیاز داریم" مطرح کرده اند.


کپی لینک کوتاه خبر: https://rasadvarzeshi.com/d/2axnpe