مخالفت ایلان ماسک و چند شخصیت مشهور دنیای فناوری با رشد شتابان پروژههای فوق پیشرفته هوش مصنوعی
تاریخ انتشار: ۱۲ فروردین ۱۴۰۲ | کد خبر: ۳۷۴۳۰۹۴۳
ایتنا - ایلان ماسک، مالک توییتر و مدیر عامل شرکت تسلا، و استیو وزنیاک، از بنیانگذاران شرکت اپل، هشدار دادهاند توسعه و پیشرفت فناوریهای موسوم به «هوش مصنوعی» در سطح فوق پیشرفته که یک نمونه آن طی چند روز گذشته وارد عرصه عمومی شده نیازمند مقررات و معیارهای ضمانتی است.
برخی از مدیران مشهور و چهرههای شناختهشده دنیای فناوری اطلاعات با انتشار نامهای سرگشاده درباره «خطر شدید هوش مصنوعی برای جامعه» هشدار داده و خواستار توقف دست کم ۶ ماهه پروژههای فوق پیشرفته در این زمینه شده اند تا فرصتی برای ایجاد یک نظام کنترل مبتنی بر اخلاق حرفهای به وجود آید.
بیشتر بخوانید:
اخباری که در وبسایت منتشر نمیشوند!
ایلان ماسک، مالک توییتر و مدیر عامل شرکت تسلا، و استیو وزنیاک، از بنیانگذاران شرکت اپل، که از امضاکنندگان این نامه هستند، هشدار دادهاند توسعه و پیشرفت فناوریهای موسوم به «هوش مصنوعی» در سطح فوق پیشرفته که یک نمونه آن طی چند روز گذشته وارد عرصه عمومی شده نیازمند مقررات و معیارهای ضمانتی است.
به گزارش ایتنا از بیبیسی، اخیرا یک آزمایشگاه تحقیقاتی در آمریکا پیشرفتهترین سامانه هوش مصنوعی موجود را رونمایی کرد.
شرکت اوپن ایآی (OpenAI) که پروژه «چت بیپیتی» را در دست اجرا دارد، دو هفته پیش از یک فناوری فوق هوشمند تحت عنوان جیپیتی -۴ رونمایی کرد که ناظران این عرصه را با توانایی خود درپاسخ دادن به سوالاتی از مشخصات و اشیاء داخل تصاویر، حیرتزده کرده است.
نامه روز چهارشنبه ۲۸ مارس که موسسه آینده زندگی (Future of Life Institute) آن را تهیه و به امضای بسیاری از جمله چهرهای شناخته شده دنیای فناوری رسانده، واکنشی به پروژههای جی پی تی - ۴ و فراتر از آن است و در آن نسبت به «ریسک» پیامدهای ورود چنین فناوریهایی برای زندگی بشر هشدار داده شده است.
در این نامه آمده: «سیستمهای هوش مصنوعی که قابلیت رقابت با هوش انسانی دارند، میتوانند خطرات بسیار جدی را متوجه انسانیت و جوامع کنند».
انستیتو آینده زندگی یک سازمان غیرانتفاعی است که میگوید هدفش «حفظ فناوریهای متحولکننده از خطرات بزرگ و افراطی و هدایت آنها به سوی فوایدشان برای زندگی بشر است».
امضاکنندگان نامه اظهار نگرانی کردهاند که پیشرفتهای اخیر باید در جهت تغییرات مثبت و مضرات آنها قابل مدیریت باشند.
نگرانی از این که پیشرفت بدون حد و معیار فناوریهای موسوم به «هوش مصنوعی» بشر را بتدریج به فاجعه سوق دهد، موضوع جدیدی نیست اما اخیرا با ظهور فناوریهای فوق پیشرفته در زمینه هوش مصنوعی، این نگرانیها اوج گرفته هر چند کارشناسان بخشی از این نگرانیها را «فراتر از واقعیت» ارزیابی میکنند و میگویند بخش از آن ناشی از «ترس تاریخی ما» از تغییرات بزرگ است که همراه با بیم از بیکاری، اضمحلال بشریت و تسلط ماشین (کامپیوتر) بر انسان است.
ایلان ماسک، مالک توییتر و مدیرعامل شرکت خودروسازی تسلا، مشاور بیرونی موسسه آینده زندگی (Future of Life Institute) است هر چند پیشتر یکی از موسسان شرکت اوپن ایآی بود اما استعفاء داد.
در نامه موسسه آینده زندگی آمده فناوریهای پیشرفته هوش مصنوعی باید با ملاحظه توسعه یابد و این در حالی است که «در ماههای اخیر شاهد آنیم که آزمایشگاههای هوش مصنوعی حتی وارد یک مسابقه غیرقابل کنترل برای پیشبرد و ارائه «ذهنهای دیجیتال» بسیار قدرتمند رفتهاند که هیچکس - حتی سازندگان آنها - قادر به درک کامل آنها، پیشبینی عمل بعدی آنها و کنترل مطمئن آنها، نیستند.»
در این نامه هشدار داده شده که محصولات هوش مصنوعی قادر است اینترنت و فضای مجازی را پر کند از اطلاعات غلطی که تشخیص نادرستی آنها بسیار دشوار و شاید غیرممکن باشد و همچنین این قابلیت را دارد که شغل چندین میلیون نفر را از آنها بگیرد.
این نامه همچنین در پی گزارشی است که شرکت سرمایهگذاری گلدمن سکز در آن هشدار داده بود که با به بازار آمدن فناوریهای پیشرفته ممکن است هوش مصنوعی جایگزین میلیونها شغل انسانی شود.
با وجود این، کارشناسان فناوری به بیبیسی میگویند پیشبینی اثرات هوش مصنوعی بر روی بازار اشتغال بسیار دشوار است.
منبع: ايتنا
کلیدواژه: ChatGPT هوش مصنوعی فوق پیشرفته آینده زندگی ایلان ماسک هشدار داده هوش مصنوعی
درخواست حذف خبر:
«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را بهطور اتوماتیک از وبسایت www.itna.ir دریافت کردهاست، لذا منبع این خبر، وبسایت «ايتنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۴۳۰۹۴۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتیکه در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.
با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.
خبر بعدی:
هوش مصنوعی بی طرف نیست ؛ چشم بسته در جنگ شلیک می کند
همشهری آنلاین - گروه سیاسی: هشدارهای بینالمللی نسبت به استفاده از تبعات هوش مصنوعی در جنگافزارها و میدانهای نبرد رو به افزایش است. تلفات دستهجمعی استفاده از این فناوری در سلاحها به همراه خطای غیر قابل چشمپوشی آن در کشتار غیرنظامیان بیش از هر چیز در این گزارشها محل توجه است. فایننشال تایمز در گزارشی به همین موضوع پرداخته است.
در بخشهایی از این گزارش آمده است:
دولت های غربی برای راه اندازی مؤسسه های ایمنی هوش مصنوعی با یکدیگر رقابت میکنند. بریتانیا، ایالات متحده، ژاپن و کانادا همگی چنین ابتکاراتی را اعلام کردهاند، در حالی که وزارت امنیت داخلی ایالات متحده هفته گذشته یک هیئت ایمنی و امنیت هوش مصنوعی را به این ترکیب اضافه کرد.
با وجود این تاکید شدید بر لزوم ایمنی استفاده از هوش مصنوعی در حملات نظامی، هیچ یک از این بخشها استفاده نظامی از هوش مصنوعی را کنترل نمیکنند. این در حالی است که میدان نبرد امروز، پتانسیل واضح خطرات ایمنی هوش مصنوعی را نشان میدهد.
با توجه به این تاکید شدید بر ایمنی، قابل توجه است که هیچ یک از این ارگان ها استفاده نظامی از هوش مصنوعی را کنترل نمی کنند. در همین حال، میدان نبرد امروزی در حال حاضر پتانسیل خطرات ایمنی واضح هوش مصنوعی را نشان میدهد.
بر اساس تحقیقات اخیر یک مجله اسرائیلی، نیروهای دفاعی اسرائیل از یک برنامه مجهز به هوش مصنوعی به نام لاوندر برای نشانگذاری اهداف خود در حملات پهپادی استفاده میکنند. این سیستم، دادهها و منابع اطلاعاتی را برای شناسایی شبهنظامیان مظنون ترکیب میکند. ظاهرا این برنامه دهها هزار هدف را شناسایی کرده و بمبهای پرتاب شده در غزه منجر به تلفات و خسارات زیادی شد. ارتش اسرائیل چندین بخش از این گزارش را رد میکند.
اهداف برای حملات پهپادی استفاده کرده اند. این سیستم داده ها و منابع اطلاعاتی را برای شناسایی شبه نظامیان مظنون ترکیب می کند. ظاهراً این برنامه دهها هزار هدف را شناسایی کرد و بمبهای پرتاب شده در غزه منجر به تلفات و خسارات جانبی بیش از حد شد. ارتش اسرائیل چندین جنبه از این گزارش را رد می کند.
سرمایهگذاران خطرپذیر بازار تکنولوژی دفاعی را تقویت میکنند. شرکتهای فناوری مشتاق هستند که بخشی از این رونق اخیر باشند و خیلی سریع مزایای هوش مصنوعی را در میدان نبرد بفروشند.
گزارش شده است که مایکروسافت ابزار هوش مصنوعی دالی را در اختیار ارتش ایالات متحده قرار داده است، همچنین شرکت جنجالی تشخیص چهره هوش مصنوعی کلیرویو بابت کمک به اوکراین در شناسایی سربازان روسی با فناوری خود افتخار میکند. شرکت اندوریل هم سیستمهای خودکار میسازد و شرکت هوش مصنوعی شیلد پهپادهای مجهز به هوش مصنوعی را توسعه میدهد. این دو شرکت در اولین دور سرمایهگذاری خود صدها میلیون دلار به دست آوردهاند.
این دولتها هستند که اجازه میدهند بخش تکنولوژی دفاعی از نظارت آنها فرار کند. قانون مهم هوش مصنوعی اتحادیه اروپا در مورد سیستمهای هوش مصنوعی که «بهطور انحصاری برای اهداف نظامی، دفاعی یا امنیت ملی هستند» اعمال نمیشود.
در همین حال فرمان اجرایی کاخ سفید در مورد هوش مصنوعی دارای نکات مهمی برای هوش مصنوعی نظامی بود (اگرچه وزارت دفاع دستورالعملهای داخلی دارد). بهعنوان مثال اجرای بسیاری از دستورات اجرایی کاخ سفید «هنگامی که هوش مصنوعی بهعنوان جزئی از یک سیستم امنیت ملی استفاده میشود» مشمول نیست. و کنگره هیچ اقدامی برای تنظیم استفاده نظامی از این فناوری انجام نداده است.
این امر باعث میشود که دو بلوک اصلی دموکراتیک جهان هیچ قانون الزامآور جدیدی در مورد نوع سیستمهای هوش مصنوعی که ارتش و سرویسهای اطلاعاتی میتوانند استفاده کنند، نداشته باشند. بنابراین آنها فاقد اقتدار اخلاقی برای تشویق سایر کشورها به استفاده از هوش مصنوعی در ارتشهای خود هستند. اعلامیه سیاسی اخیر در مورد «استفاده مسئولانه نظامی از هوش مصنوعی و خودکار» بودن آنها که از سوی تعدادی از کشورها حمایت شد، چیزی بیش از یک اعلامیه نیست.
این سوال مطرح است که بحثهای سیاسی در مورد ایمنی هوش مصنوعی در صورتی که کاربردهای نظامی این فناوری را پوشش ندهد، چقدر معنادار است؟ بهرغم نقص شواهد مبنی بر اینکه سلاحهای مجهز به هوش مصنوعی میتوانند با قوانین بینالمللی در مورد تمایز و تناسب در میدان جنگ مطابقت داشته باشد، آنها در سراسر جهان فروخته میشوند. از آنجایی که برخی از فناوریها دارای کاربرد دوگانه هستند، خطوط میان کاربردهای نظامی و غیرنظامی در حال محو شدن هستند.
تصمیم برای قاعدهمند نکردن استفاده نظامی از هوش مصنوعی هزینه انسانی دارد. صرفنظر از اینکه هوش مصنوعی بهطور سیستماتیک دقیق است یا خیر، اغلب به سیستمهای هوش مصنوعی در زمینههای نظامی اطمینان بیمورد داده میشود، زیر به اشتباه بیطرف تلقی میشوند.
هوش مصنوعی میتواند به تصمیمگیری سریعتر نظامی کند کند، اما همچنین میتواند مستعد خطا باشد و اساسا ممکن است هوش مصنوعی به قوانین بشردوستانه بینالمللی پایبند نباشد. کنترل انسانی بر عملیات در پاسخگو نگه داشتن قانونی بازیگران نبرد بسیار مهم است.
سازمان ملل تلاش کرده این خلا را پر کند. آنتونیو گوترش دبیرکل سازمان ملل برای اولین بار در سال ۲۰۱۸ خواستار ممنوعیت سلاحهای خودکار شد و آنها را از نظر اخلاقی منفور توصیف کرد. بیش از ۱۰۰ کشور علاقهمند به مذاکره و تصویب قوانین بینالمللی جدید برای منع و محدود کردن سیستمهای تسلیحاتی خودکار هستند، اما روسیه، آمریکا، بریتانیا و اسرائیل با یک پیشنهاد الزامآور مخالفت کردهاند که باعث شکست مذاکرات شده است.
اگر کشورها برای محافظت از غیرنظامیان در استفاده نظامی از هوش مصنوعی اقدامی نکنند، نظام بین المللی مبتنی بر قوانین باید تقویت شود.
نهاد مشورتی سطح عالی دبیرکل سازمان ملل در استفاده از هوش مصنوعی یکی از گروههایی است که میتواند ممنوعیت استفادههای مخاطرهآمیز از هوش مصنوعی نظامی را توصیه کند، اما رهبری سیاسی برای اطمینان از رعایت قوانین حیاتی است.
اطمینان از ادامه استانداردهای حقوق بشری و قوانین درگیریهای مسلحانه برای محافظت از غیرنظامیان در عصر جدید جنگ بسیار مهم است. استفاده بی رویه از هوش مصنوعی در میدان نبرد نمی تواند ادامه یابد.
کد خبر 848813 برچسبها هواپیما - پهپاد خبر ویژه هوش مصنوعی