مراکزداده سرکش ممکن است نیاز به نابودی داشته باشند

مراکز داده سرکش

مراکز داده سرکش


زمان تخمینی مطالعه: 5 دقیقه

الیزر یودکوفسکی محقق برجسته هوش‌مصنوعی، می‌گوید برای جلوگیری از تهدید هوش‌مصنوعی برای بشریت و تمام زندگی، ممکن است لازم باشد مراکزداده از بین بروند! شاید مجبور شویم مراکزداده سرکش را بمباران کنیم تا بشریت را نجات دهیم.

این محقق برجسته ایمنی هوش‌مصنوعی خواستار اقدام فوری برای محافظت از آینده بشریت شده است. یودکوفسکی یک محقق در موسسه تحقیقات هوش‌ماشینی (MIRI) است و به‌دلیل رایج کردن مفهوم هوش‌مصنوعی دوستانه، بسیار شناخته شده است. در مقاله‌ای که اخیرا در مجله تایم منتشر شد، وی بیان کرده است که آینده بشریت نیازمند تعادل است و باید برای جلوگیری از وقوع یک رویداد فاجعه‌بار اقدام فوری انجام داد.

از آن‌جایی که مراکزداده به‌عنوان دستگاه عصبی دیجیتالی برای هوش‌مصنوعی عمل می‌کنند، تخریب آن مستلزم از بین رفتن مراکزداده‌ای است که به آن نیرو می‌دهند. یودکوفسکی در ادامه بیان می‌کند که اگر یک هوش‌مصنوعی بیش از حد قدرتمند ساخته شود، می‌تواند منجر به انقراض تمام حیات بیولوژیکی روی زمین شود. یودکوفسکی گفت: «اگر کسی هوش‌مصنوعی بسیار قدرتمندی را در شرایط کنونی بسازد، من انتظار دارم که تک‌تک اعضای گونه‌ی انسان و تمام حیات بیولوژیکی روی زمین در مدت کوتاهی پس از آن از بین بروند.»

این محقق همچنین نگرانی‌های خود را در مورد عدم شفافیت OpenAI، شرکتی که در تلاش برای ساخت هوش‌مصنوعی ایمن و مفید است، ابراز کرده است. یودکوفسکی معتقد است که عدم شفافیت درک این‌که چقدر به خودآگاهی یا فاجعه هوش‌مصنوعی نزدیک هستیم، بسیار دشوار است. او محققی در زمینه همسویی هوش‌مصنوعی است که در مورد هدایت سامانه‌های هوش‌مصنوعی تحقیقات شایانی انجام داده.

OpenAI گفته است که قصد دارد مشکل هم‌ترازی را با ساخت یک هوش‌مصنوعی که می‌تواند به توسعه همسویی برای سایر هوش‌مصنوعی‌ها کمک می‌کند، حل کند. یودکوفسکی این رویکرد را مورد انتقاد قرار داده و اظهار داشته که «فقط شنیدن آن که این یک طرح است، برای ترساندن هر عاقلی کافی است».

به‌رغم این واقعیت که یودکوسکی نقش کلیدی در تسریع تحقیقات در مورد هوش عمومی مصنوعی (AGI) ایفا کرده است، او خواستار محدودیت در توان محاسباتی و ردیابی فروش GPU است. او استدلال می‌کند که مراکزداده سرکش باید نابود شوند تا از وقوع یک رویداد فاجعه بار جلوگیری شود. نگرانی‌های یودکوفسکی در مورد ایمنی هوش‌مصنوعی توسط سایر محققان، مدیران عامل و چهره‌های هوش‌مصنوعی از جمله ایلان ماسک، استوارت راسل و یوشوا بنجیو مشترک است. آن‌ها در نامه‌ی سرگشاده اخیر خود خواستار توقف شش ماهه آزمایش‌های غول پیکر هوش‌مصنوعی شدند.

یودکوفسکی معتقد است که این گامی در مسیر درست است، اما در حال بررسی حل مشکل آن است. در مقاله تایم، یودکوفسکی استدلال می‌کند که مطالعه موثر ایمنی هوش‌مصنوعی می‌تواند چندین دهه طول بکشد و بشریت باید برای جلوگیری از وقوع یک رویداد فاجعه‌بار اقدامی فوری انجام دهد. نکته ای که در مورد امتحان این کار با هوش مافوق بشری وجود دارد این است که اگر در اولین تلاش اشتباه کنید، نمی‌توانید از اشتباهات خود درس بگیرید. او می‌افزاید: بشریت از اشتباه درس نمی‌گیرد و مانند دیگر چالش‌هایی که در تاریخ خود بر آن‌ها غلبه داشته، گردوغبار را پاک و دوباره تلاش می‌کند! به‌عنوان یک راه‌حل، یودکوفسکی توقف اجرای دوره‌های آموزشی جدید را پیشنهاد کرده که باید در سراسر جهان اتفاق افتد. او توصیه می‌کند که همه خوشه‌های بزرگ GPU را که مزرعه‌های کامپیوتری بزرگی هستند و قوی‌ترین هوش‌مصنوعی‌ها در آن‌ها پالایش می‌شوند، خاموش شوند و سقفی در مورد میزان قدرت محاسباتی که هر کسی مجاز است در آموزش یک سامانه هوش‌مصنوعی استفاده کند، تعیین شود. یودکوفسکی معتقد است نباید هیچ استثنایی برای دولت‌ها و ارتش‌ها قائل شد و برای جلوگیری از حرکت فعالیت‌های ممنوعه به جاهای دیگر، به توافق‌های فوری چندملیتی نیاز است. به منظور اجرای این مقررات، یودکوفسکی پیشنهاد می‌کند همه پردازنده‌های گرافیکی فروخته شده ردیابی شوند. او پیشنهاد می‌کند که مراکزداده سرکش باید در صورت لزوم با حملات هوایی نابود شوند. پیشنهادهای یودکوفسکی ممکن است تُند و التهاب‌آور به نظر برسد، اما او استدلال می‌کند که ما آماده‌ی رویارویی با این چالش‌ها نیستیم و اقدامات پیشگیرانه از نظر عملیات مرکزداده در سراسر جهان مورد نیاز است.

امتیاز شما به این مطلب

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *