Web Analytics Made Easy - Statcounter

ایتنا - ایلان ماسک، مالک توییتر و مدیر عامل شرکت تسلا، و استیو وزنیاک، از بنیان‌گذاران شرکت اپل، هشدار داده‌اند توسعه و پیشرفت فناوری‌های موسوم به «هوش مصنوعی» در سطح فوق پیشرفته که یک نمونه آن طی چند روز گذشته وارد عرصه عمومی شده نیازمند مقررات و معیارهای ضمانتی است.
برخی از مدیران مشهور و چهره‌های شناخته‌شده دنیای فناوری اطلاعات با انتشار نامه‌ای سرگشاده درباره «خطر شدید هوش مصنوعی برای جامعه» هشدار داده‌ و خواستار توقف دست کم ۶ ماهه پروژه‌های فوق پیشرفته در این زمینه شده اند تا فرصتی برای ایجاد یک نظام کنترل مبتنی بر اخلاق حرفه‌ای به وجود آید.

بیشتر بخوانید: اخباری که در وبسایت منتشر نمی‌شوند!


ایلان ماسک، مالک توییتر و مدیر عامل شرکت تسلا، و استیو وزنیاک، از بنیان‌گذاران شرکت اپل، که از امضاکنندگان این نامه هستند، هشدار داده‌اند توسعه و پیشرفت فناوری‌های موسوم به «هوش مصنوعی» در سطح فوق پیشرفته که یک نمونه آن طی چند روز گذشته وارد عرصه عمومی شده نیازمند مقررات و معیارهای ضمانتی است.

به گزارش ایتنا از بی‌بی‌سی، اخیرا یک آزمایشگاه تحقیقاتی در آمریکا پیشرفته‌ترین سامانه هوش مصنوعی موجود را رونمایی کرد.
شرکت اوپن ای‌آی (OpenAI) که پروژه «چت بی‌پی‌تی» را در دست اجرا دارد، دو هفته پیش از یک فناوری فوق هوشمند تحت عنوان جی‌پی‌تی -۴ رونمایی کرد که ناظران این عرصه را با توانایی خود درپاسخ دادن به سوالاتی از مشخصات و اشیاء داخل تصاویر، حیرت‌زده کرده است.

نامه روز چهارشنبه ۲۸ مارس که موسسه آینده زندگی (Future of Life Institute) آن را تهیه و به امضای بسیاری از جمله چهرهای شناخته شده دنیای فناوری رسانده، واکنشی به پروژه‌های جی پی تی - ۴ و فراتر از آن است و در آن نسبت به «ریسک» پیامدهای ورود چنین فناوری‌هایی برای زندگی بشر هشدار داده شده است.

در این نامه آمده: «سیستم‌های هوش مصنوعی که قابلیت رقابت با هوش انسانی دارند، می‌توانند خطرات بسیار جدی را متوجه انسانیت و جوامع کنند».
انستیتو آینده زندگی یک سازمان غیرانتفاعی است که می‌گوید هدفش «حفظ فناوری‌های متحول‌کننده از خطرات بزرگ و افراطی و هدایت آنها به سوی فوایدشان برای زندگی بشر است».

امضاکنندگان نامه اظهار نگرانی کرده‌اند که پیشرفت‌های اخیر باید در جهت تغییرات مثبت و مضرات آنها قابل مدیریت باشند.
نگرانی از این که پیشرفت بدون حد و معیار فناوری‌های موسوم به «هوش مصنوعی» بشر را بتدریج به فاجعه سوق دهد، موضوع جدیدی نیست اما اخیرا با ظهور فناوری‌های فوق پیشرفته در زمینه هوش مصنوعی، این نگرانی‌ها اوج گرفته هر چند کارشناسان بخشی از این نگرانی‌ها را «فراتر از واقعیت» ارزیابی می‌کنند و می‌گویند بخش از آن ناشی از «ترس تاریخی ما» از تغییرات بزرگ است که همراه با بیم از بیکاری، اضمحلال بشریت و تسلط ماشین (کامپیوتر) بر انسان است.

ایلان ماسک، مالک توییتر و مدیرعامل شرکت خودروسازی تسلا، مشاور بیرونی موسسه آینده زندگی (Future of Life Institute) است هر چند پیش‌تر یکی از موسسان شرکت اوپن ای‌آی بود اما استعفاء داد.

در نامه موسسه آینده زندگی آمده فناوری‌های پیشرفته هوش مصنوعی باید با ملاحظه توسعه یابد و این در حالی است که‌ «در ماه‌های اخیر شاهد آنیم که آزمایشگاه‌های هوش مصنوعی حتی وارد یک مسابقه غیرقابل کنترل برای پیش‌برد و ارائه «ذهن‌های دیجیتال» بسیار قدرتمند رفته‌اند که هیچ‌کس - حتی سازندگان آنها - قادر به درک کامل آنها، پیش‌بینی عمل بعدی آنها و کنترل‌ مطمئن آنها، نیستند.»
در این نامه هشدار داده شده که محصولات هوش مصنوعی قادر است اینترنت و فضای مجازی را پر کند از اطلاعات غلطی که تشخیص نادرستی آنها بسیار دشوار و شاید غیرممکن باشد و همچنین این قابلیت را دارد که شغل چندین میلیون نفر را از آنها بگیرد.

این نامه همچنین در پی گزارشی است که شرکت سرمایه‌گذاری گلدمن سکز در آن هشدار داده بود که با به بازار آمدن فناوری‌های پیش‌رفته ممکن است هوش مصنوعی جایگزین میلیون‌ها شغل انسانی شود.
با وجود این، کارشناسان فناوری به بی‌بی‌سی می‌گویند پیش‌بینی اثرات هوش مصنوعی بر روی بازار اشتغال بسیار دشوار است.
 

منبع: ايتنا

کلیدواژه: ChatGPT هوش مصنوعی فوق پیشرفته آینده زندگی ایلان ماسک هشدار داده هوش مصنوعی

درخواست حذف خبر:

«خبربان» یک خبرخوان هوشمند و خودکار است و این خبر را به‌طور اتوماتیک از وبسایت www.itna.ir دریافت کرده‌است، لذا منبع این خبر، وبسایت «ايتنا» بوده و سایت «خبربان» مسئولیتی در قبال محتوای آن ندارد. چنانچه درخواست حذف این خبر را دارید، کد ۳۷۴۳۰۹۴۳ را به همراه موضوع به شماره ۱۰۰۰۱۵۷۰ پیامک فرمایید. لطفاً در صورتی‌که در مورد این خبر، نظر یا سئوالی دارید، با منبع خبر (اینجا) ارتباط برقرار نمایید.

با استناد به ماده ۷۴ قانون تجارت الکترونیک مصوب ۱۳۸۲/۱۰/۱۷ مجلس شورای اسلامی و با عنایت به اینکه سایت «خبربان» مصداق بستر مبادلات الکترونیکی متنی، صوتی و تصویر است، مسئولیت نقض حقوق تصریح شده مولفان در قانون فوق از قبیل تکثیر، اجرا و توزیع و یا هر گونه محتوی خلاف قوانین کشور ایران بر عهده منبع خبر و کاربران است.

خبر بعدی:

هوش مصنوعی بی طرف نیست ؛ چشم بسته در جنگ شلیک می کند

همشهری آنلاین - گروه سیاسی: هشدارهای بین‌المللی نسبت به استفاده از تبعات هوش مصنوعی در جنگ‌افزارها و میدان‌های نبرد رو به افزایش است. تلفات دسته‌جمعی استفاده از این فناوری در سلاح‌ها به همراه خطای غیر قابل چشم‌پوشی آن در کشتار غیرنظامیان بیش از هر چیز در این گزارش‌ها محل توجه است. فایننشال تایمز در گزارشی به همین موضوع پرداخته است.

در بخش‌هایی از این گزارش آمده است:

دولت های غربی برای راه اندازی مؤسسه های ایمنی هوش مصنوعی با یکدیگر رقابت می‌کنند. بریتانیا، ایالات متحده، ژاپن و کانادا همگی چنین ابتکاراتی را اعلام کرده‌اند، در حالی که وزارت امنیت داخلی ایالات متحده هفته گذشته یک هیئت ایمنی و امنیت هوش مصنوعی را به این ترکیب اضافه کرد.

با وجود این تاکید شدید بر لزوم ایمنی استفاده از هوش مصنوعی در حملات نظامی، هیچ یک از این بخش‌ها استفاده نظامی از هوش مصنوعی را کنترل نمی‌کنند. این در حالی است که میدان نبرد امروز، پتانسیل واضح خطرات ایمنی هوش مصنوعی را نشان می‌دهد.

با توجه به این تاکید شدید بر ایمنی، قابل توجه است که هیچ یک از این ارگان ها استفاده نظامی از هوش مصنوعی را کنترل نمی کنند. در همین حال، میدان نبرد امروزی در حال حاضر پتانسیل خطرات ایمنی واضح هوش مصنوعی را نشان می‌دهد.

بر اساس تحقیقات اخیر یک مجله اسرائیلی، نیروهای دفاعی اسرائیل از یک برنامه مجهز به هوش مصنوعی به نام لاوندر برای نشان‌گذاری اهداف خود در حملات پهپادی استفاده می‌کنند. این سیستم، داده‌ها و منابع اطلاعاتی را برای شناسایی شبه‌نظامیان مظنون ترکیب می‌کند. ظاهرا این برنامه ده‌ها هزار هدف را شناسایی کرده و بمب‌های پرتاب شده در غزه منجر به تلفات و خسارات زیادی شد. ارتش اسرائیل چندین بخش از این گزارش را رد می‌کند.

اهداف برای حملات پهپادی استفاده کرده اند. این سیستم داده ها و منابع اطلاعاتی را برای شناسایی شبه نظامیان مظنون ترکیب می کند. ظاهراً این برنامه ده‌ها هزار هدف را شناسایی کرد و بمب‌های پرتاب شده در غزه منجر به تلفات و خسارات جانبی بیش از حد شد. ارتش اسرائیل چندین جنبه از این گزارش را رد می کند.

سرمایه‌گذاران خطرپذیر بازار تکنولوژی دفاعی را تقویت می‌کنند. شرکت‌های فناوری مشتاق هستند که بخشی از این رونق اخیر باشند و خیلی سریع مزایای هوش مصنوعی را در میدان نبرد بفروشند.

گزارش شده است که مایکروسافت ابزار هوش مصنوعی دالی را در اختیار ارتش ایالات متحده قرار داده است، همچنین شرکت جنجالی تشخیص چهره هوش مصنوعی کلیرویو بابت کمک به اوکراین در شناسایی سربازان روسی با فناوری خود افتخار می‌کند. شرکت اندوریل هم سیستم‌های خودکار می‌سازد و شرکت هوش مصنوعی شیلد پهپادهای مجهز به هوش مصنوعی را توسعه می‌دهد. این دو شرکت در اولین دور سرمایه‌گذاری خود صدها میلیون دلار به دست آورده‌اند.

این دولت‌ها هستند که اجازه می‌دهند بخش تکنولوژی دفاعی از نظارت آنها فرار کند. قانون مهم هوش مصنوعی اتحادیه اروپا در مورد سیستم‌های هوش مصنوعی که «به‌طور انحصاری برای اهداف نظامی، دفاعی یا امنیت ملی هستند» اعمال نمی‌شود.

در همین حال فرمان اجرایی کاخ سفید در مورد هوش مصنوعی دارای نکات مهمی برای هوش مصنوعی نظامی بود (اگرچه وزارت دفاع دستورالعمل‌های داخلی دارد). به‌عنوان مثال اجرای بسیاری از دستورات اجرایی کاخ سفید «هنگامی که هوش مصنوعی به‌عنوان جزئی از یک سیستم امنیت ملی استفاده می‌شود» مشمول نیست. و کنگره هیچ اقدامی برای تنظیم استفاده نظامی از این فناوری انجام نداده است.

این امر باعث می‌شود که دو بلوک اصلی دموکراتیک جهان هیچ قانون الزام‌آور جدیدی در مورد نوع سیستم‌های هوش مصنوعی که ارتش و سرویس‌های اطلاعاتی می‌توانند استفاده کنند، نداشته باشند. بنابراین آنها فاقد اقتدار اخلاقی برای تشویق سایر کشورها به استفاده از هوش مصنوعی در ارتش‌های خود هستند. اعلامیه سیاسی اخیر در مورد «استفاده مسئولانه نظامی از هوش مصنوعی و خودکار» بودن آنها که از سوی تعدادی از کشورها حمایت شد، چیزی بیش از یک اعلامیه نیست.

این سوال مطرح است که بحث‌های سیاسی در مورد ایمنی هوش مصنوعی در صورتی که کاربردهای نظامی این فناوری را پوشش ندهد، چقدر معنادار است؟ به‌رغم نقص شواهد مبنی بر اینکه سلاح‌های مجهز به هوش مصنوعی می‌توانند با قوانین بین‌المللی در مورد تمایز و تناسب در میدان جنگ مطابقت داشته باشد، آنها در سراسر جهان فروخته می‌شوند. از آنجایی که برخی از فناوری‌ها دارای کاربرد دوگانه هستند، خطوط میان کاربردهای نظامی و غیرنظامی در حال محو شدن هستند.

تصمیم برای قاعده‌مند نکردن استفاده نظامی از هوش مصنوعی هزینه انسانی دارد. صرف‌نظر از اینکه هوش مصنوعی به‌طور سیستماتیک دقیق است یا خیر، اغلب به سیستم‌های هوش مصنوعی در زمینه‌های نظامی اطمینان بی‌مورد داده می‌شود، زیر به اشتباه بی‌طرف تلقی می‌شوند.

هوش مصنوعی می‌تواند به تصمیم‌گیری سریع‌تر نظامی کند کند، اما همچنین می‌تواند مستعد خطا باشد و اساسا ممکن است هوش مصنوعی به قوانین بشردوستانه بین‌المللی پایبند نباشد. کنترل انسانی بر عملیات در پاسخگو نگه داشتن قانونی بازیگران نبرد بسیار مهم است.

سازمان ملل تلاش کرده این خلا را پر کند. آنتونیو گوترش دبیرکل سازمان ملل برای اولین بار در سال ۲۰۱۸ خواستار ممنوعیت سلاح‌های خودکار شد و آنها را از نظر اخلاقی منفور توصیف کرد. بیش از ۱۰۰ کشور علاقه‌مند به مذاکره و تصویب قوانین بین‌المللی جدید برای منع و محدود کردن سیستم‌های تسلیحاتی خودکار هستند، اما روسیه، آمریکا، بریتانیا و اسرائیل با یک پیشنهاد الزام‌آور مخالفت کرده‌اند که باعث شکست مذاکرات شده است.

اگر کشورها برای محافظت از غیرنظامیان در استفاده نظامی از هوش مصنوعی اقدامی نکنند، نظام بین المللی مبتنی بر قوانین باید تقویت شود.

نهاد مشورتی سطح عالی دبیرکل سازمان ملل در استفاده از هوش مصنوعی یکی از گروه‌هایی است که می‌تواند ممنوعیت استفاده‌های مخاطره‌آمیز از هوش مصنوعی نظامی را توصیه کند، اما رهبری سیاسی برای اطمینان از رعایت قوانین حیاتی است.

اطمینان از ادامه استانداردهای حقوق بشری و قوانین درگیری‌های مسلحانه برای محافظت از غیرنظامیان در عصر جدید جنگ بسیار مهم است. استفاده بی رویه از هوش مصنوعی در میدان نبرد نمی تواند ادامه یابد.

کد خبر 848813 برچسب‌ها هواپیما - پهپاد خبر ویژه هوش‌ مصنوعی

دیگر خبرها

  • توافق‌نامه‌ای برای حمایت از صادرات شرکت‌های دانش‌بنیان
  • غول جدید ماهواره‌ای به رقابت با ایلان ماسک می‌رود
  • بهره‌برداری از پروژه فروسیلیس منگنز ازنا در چند ماه آینده
  • چالش‌های زیست‌محیطی در توسعه هوش مصنوعی
  • زارع‌ پور: آماده‌ اجرایی کردن پروژه‌هایی در حوزه های ارتباطات و اطلاعات در این کشور آفریقایی هستیم
  • دستیار هوشمند خانگی/ هوش مصنوعی چگونه به خانه‌داری کمک می‌کند؟
  • هوش مصنوعی بی طرف نیست ؛ چشم بسته در جنگ شلیک می کند
  • اینترنت کوانتومی و توسعه فناوری دسترسی رادیویی باز؛ پروژه‌های پرچمدار ستاد اتصال‌پذیری
  • شخصیت‌های ماندگار در دنیای انیمیشن‌های نوستالژیک
  • سهام تسلا به دلیل شایعات مربوط به قرارداد چین افزایش یافت