زمان تخمینی مطالعه: 5 دقیقه
الیزر یودکوفسکی محقق برجسته هوشمصنوعی، میگوید برای جلوگیری از تهدید هوشمصنوعی برای بشریت و تمام زندگی، ممکن است لازم باشد مراکزداده از بین بروند! شاید مجبور شویم مراکزداده سرکش را بمباران کنیم تا بشریت را نجات دهیم.
این محقق برجسته ایمنی هوشمصنوعی خواستار اقدام فوری برای محافظت از آینده بشریت شده است. یودکوفسکی یک محقق در موسسه تحقیقات هوشماشینی (MIRI) است و بهدلیل رایج کردن مفهوم هوشمصنوعی دوستانه، بسیار شناخته شده است. در مقالهای که اخیرا در مجله تایم منتشر شد، وی بیان کرده است که آینده بشریت نیازمند تعادل است و باید برای جلوگیری از وقوع یک رویداد فاجعهبار اقدام فوری انجام داد.
از آنجایی که مراکزداده بهعنوان دستگاه عصبی دیجیتالی برای هوشمصنوعی عمل میکنند، تخریب آن مستلزم از بین رفتن مراکزدادهای است که به آن نیرو میدهند. یودکوفسکی در ادامه بیان میکند که اگر یک هوشمصنوعی بیش از حد قدرتمند ساخته شود، میتواند منجر به انقراض تمام حیات بیولوژیکی روی زمین شود. یودکوفسکی گفت: «اگر کسی هوشمصنوعی بسیار قدرتمندی را در شرایط کنونی بسازد، من انتظار دارم که تکتک اعضای گونهی انسان و تمام حیات بیولوژیکی روی زمین در مدت کوتاهی پس از آن از بین بروند.»
این محقق همچنین نگرانیهای خود را در مورد عدم شفافیت OpenAI، شرکتی که در تلاش برای ساخت هوشمصنوعی ایمن و مفید است، ابراز کرده است. یودکوفسکی معتقد است که عدم شفافیت درک اینکه چقدر به خودآگاهی یا فاجعه هوشمصنوعی نزدیک هستیم، بسیار دشوار است. او محققی در زمینه همسویی هوشمصنوعی است که در مورد هدایت سامانههای هوشمصنوعی تحقیقات شایانی انجام داده.
OpenAI گفته است که قصد دارد مشکل همترازی را با ساخت یک هوشمصنوعی که میتواند به توسعه همسویی برای سایر هوشمصنوعیها کمک میکند، حل کند. یودکوفسکی این رویکرد را مورد انتقاد قرار داده و اظهار داشته که «فقط شنیدن آن که این یک طرح است، برای ترساندن هر عاقلی کافی است».
بهرغم این واقعیت که یودکوسکی نقش کلیدی در تسریع تحقیقات در مورد هوش عمومی مصنوعی (AGI) ایفا کرده است، او خواستار محدودیت در توان محاسباتی و ردیابی فروش GPU است. او استدلال میکند که مراکزداده سرکش باید نابود شوند تا از وقوع یک رویداد فاجعه بار جلوگیری شود. نگرانیهای یودکوفسکی در مورد ایمنی هوشمصنوعی توسط سایر محققان، مدیران عامل و چهرههای هوشمصنوعی از جمله ایلان ماسک، استوارت راسل و یوشوا بنجیو مشترک است. آنها در نامهی سرگشاده اخیر خود خواستار توقف شش ماهه آزمایشهای غول پیکر هوشمصنوعی شدند.
یودکوفسکی معتقد است که این گامی در مسیر درست است، اما در حال بررسی حل مشکل آن است. در مقاله تایم، یودکوفسکی استدلال میکند که مطالعه موثر ایمنی هوشمصنوعی میتواند چندین دهه طول بکشد و بشریت باید برای جلوگیری از وقوع یک رویداد فاجعهبار اقدامی فوری انجام دهد. نکته ای که در مورد امتحان این کار با هوش مافوق بشری وجود دارد این است که اگر در اولین تلاش اشتباه کنید، نمیتوانید از اشتباهات خود درس بگیرید. او میافزاید: بشریت از اشتباه درس نمیگیرد و مانند دیگر چالشهایی که در تاریخ خود بر آنها غلبه داشته، گردوغبار را پاک و دوباره تلاش میکند! بهعنوان یک راهحل، یودکوفسکی توقف اجرای دورههای آموزشی جدید را پیشنهاد کرده که باید در سراسر جهان اتفاق افتد. او توصیه میکند که همه خوشههای بزرگ GPU را که مزرعههای کامپیوتری بزرگی هستند و قویترین هوشمصنوعیها در آنها پالایش میشوند، خاموش شوند و سقفی در مورد میزان قدرت محاسباتی که هر کسی مجاز است در آموزش یک سامانه هوشمصنوعی استفاده کند، تعیین شود. یودکوفسکی معتقد است نباید هیچ استثنایی برای دولتها و ارتشها قائل شد و برای جلوگیری از حرکت فعالیتهای ممنوعه به جاهای دیگر، به توافقهای فوری چندملیتی نیاز است. به منظور اجرای این مقررات، یودکوفسکی پیشنهاد میکند همه پردازندههای گرافیکی فروخته شده ردیابی شوند. او پیشنهاد میکند که مراکزداده سرکش باید در صورت لزوم با حملات هوایی نابود شوند. پیشنهادهای یودکوفسکی ممکن است تُند و التهابآور به نظر برسد، اما او استدلال میکند که ما آمادهی رویارویی با این چالشها نیستیم و اقدامات پیشگیرانه از نظر عملیات مرکزداده در سراسر جهان مورد نیاز است.
منبع : Data Centre Magazine
بخوانید : راهحلهای جامع R&M در زمینه کابلکشی محیطهای اداری
بدون دیدگاه