داستان تحولات در مراکز داده

تحولات مراکز داده

تحولات مراکز داده


 

مراکز داده

ایده‌ی این موضوع که یک سیستم پرازش داده ها می تواند صندلی های هواپیما را رزرو و مدیریت کند و فورا داده ها را به صورت الکترونیکی در اختیار هر نماینده ای در هر مکان قرار دهد، در سال 1960 به واقعیت پیوست و درها را به روی مراکز داده در مقیاس سازمانی باز کرد.

از آن زمان به بعد ، تغییرات فیزیکی و تکنولوژیکی در محاسبات و ذخیره داده ها ما را در مسیری پرپیچ و خم به جایی که امروز هستیم هدایت کرد. در این مقاله می خواهیم نگاهی گذرا به سیر تحولات در مرکز داده، از پردازنده مرکزی دیروز تا تکامل فضای ابری امروز و برخی اثرات آن ها بر فناوری اطلاعات داشته باشیم.

مراکز داده در سال 1946

ادغام کننده الکترونیکی عددی و کامپیوتر در سال 1946 برای ذخیره کدهای شلیک توپخانه ارتش ایالات متحده ساخته شد و به عنوان اولین رایانه دیجیتال الکترونیکی چند منظوره لقب گرفت.

مراکز داده در اوایل سال 1960

اولین کامپیوتر ترانزیستوری (TRADIC) در سال 1954 معرفی شد و اولین دستگاهی بود که از همه ترانزیستورها و دیودها استفاده می کرد و لوله های خلاء نداشت. سیستم های تجاری واقعی که تا دهه 1960 وارد بازار نشدند مانند سری IBM System برای افزایش قابل توجه مهارت های محاسباتی ، به پردازنده های مرکزی منتهی شدند.

مراکز داده در 1971

در این سال شرکت intel پردازنده 4004 خود را معرفی کرد و به اولین پردازنده قابل برنامه ریزی عمومی در بازار تبدیل شد. این مانند بلوک یک سازه بود که مهندسان می توانستند آن را خریداری کرده و سپس با نرم افزار آن را به صورت سفارشی انجام دهند تا عملکردهای مختلف در طیف گسترده ای از دستگاه های الکترونیک انجام دهد.

مراکز داده در 1973

زیراکس ALTO تبدیل به اولین کامپیوتری شد که از رابط کاربری گرافیکی استفاده می کرد و شامل صفحه نمایش با وضوح بالا ، حافظه داخلی بزرگ و نرم افزارهای ویژه بود.

1977

در این سال شبکه ARCnet به عنوان اولین شبکه LAN معرفی شد. این شبکه در یکی از بانک های شهر منهتن در ایالات متحده به کارگرفته می شود و سرعت انتقال داده 2.5 مگابیت بر ثانیه را پشتیبانی می کرد و 255 کامپیوتر را از طریق شبکه متصل به یکدیگر می کرد.

1978

شرکت SunGard کسب و کار بازسازی فاجعه‌ی تجاری را توسعه داد و آن را تثبیت کرد.

قبل از معرفی سرورهای PC، تصمیمات فناوری اطلاعات درباره‌ی پردازنده مرکزی باید در مقیاس مطلق سازمانی برای همه چیز از جمله سیستم عامل، سخت افزار و برنامه ها گرفته می شد. تمام این موارد که در یک دستگاه برای کل شرکت اجرا می شد، باعث ایجاد انعطاف پذیری محدود و تصمیمات دشوار در فناوری اطلاعات شدند.

دهه1980

کامپیوترهای شخصی (PC) در سال 1981 معرفی شدند که در صنعت میکروکامپیوترها مثل بمب صدا کردند.

میکروسیستم های Sun پروتکل سیستم فایل شبکه را توسعه داد و به کاربر در رایانه سرویس گیرنده (client) اجازه داد تا به شیوه ای شبیه به نحوه دسترسی به ذخیره سازی محلی ، به فایل های شبکه دسترسی پیدا کند.

رایانه ها به سرعت در همه جا نصب می شدند اما توجه به الزامات زیست محیطی و عملکردی به حداقل خود رسید.

اوایل سال 1990

میکرو کامپیوترها به عنوان سرور شروع به پر کردن اتاق های کامپیوتر و پردازنده ی مرکزی کردند و این اتاق ها تبدیل به مراکز داده یا همان دیتاسنترها شدند.پس از آن شرکت ها شروع به سرهم کردن این بانک های سروری در درون دیوارهای خود کردند.

اواسط 1990

افزایش “.com” باعث شد تا شرکت ها تمایل به اتصال سریع اینترنت و عملکرد بدون توقف را داشته باشند. این امر منجر به ساخت اتاق سرور به صورت سازمانی شد و باعث ایجاد امکانات بسیار بزرگتری (صدها و هزاران سرور) شد. مرکز داده به عنوان یک مدل سرویس در این زمان محبوب شد.

به لطف PC (سرورها)، تصمیمات فناوری اطلاعات به دو صورت جداگانه گرفته شد. سرورها تصمیمات مبتنی بر اپلیکیشن را مجاز دانستند ، در حالی که تصمیمات سخت افزاری (مرکز داده) در سطح سازمانی خود باقی ماند.

1997

در این سال اپل برنامه ای به نام Virtual PC ایجاد کرد و آن را از طریق شرکتی به نام Connectix فروخت. Virtual PC مانند SoftPC به کاربران اجازه داد تا یک کپی از پنجره ها را بر روی کامپیوتر Mac اجرا کنند تا بتوانند ناسازگاری های نرم‌افزاری را حل کنند.

1999

VMware شروع به فروش VMware Workstation کرد که مشابه Virtual PC بود. نسخه های اولیه فقط بر روی ویندوز اجرا می شد ، اما بعداً از سایر سیستم عامل ها پشتیبانی کرد.

2001

VMware ESX راه اندازی شد-ابرنظرهای فلزی برهنه که مستقیماً بر روی سخت افزار سرور اجرا می شدند و نیازی به سیستم عامل اضافی ندارند.

2002

خدمات وب آمازون توسعه مجموعه ای از خدمات مبتنی بر ابر را آغاز کرد که شامل ذخیره ، محاسبه و برخی از اطلاعات انسانی از طریق “Amazon Mechanical Turk” می باشد.

2006

خدمات وب آمازون شروع به ارائه خدمات زیرساختی فناوری اطلاعات به مشاغل در قالب خدمات وب کرد که امروزه به رایانش ابری معروف است.

2011

فیس بوک پروژه Open Compute را راه اندازی کرد ، ابتکاری در سراسر صنعت برای به اشتراک گذاشتن مشخصات و بهترین شیوه ها برای ایجاد کارآمدترین و مقرون به صرفه ترین مراکز داده.

2013

Telcordia الزامات عمومی برای تجهیزات و فضاهای مرکز داده های مخابراتی را معرفی کرد. این سند حداقل الزامات فضایی و محیطی را برای تجهیزات و فضاهای مرکز داده ارائه داد.

گوگل در سال 2013 مبلغ 7.35 میلیارد دلار سرمایه گذاری عظیم در زیرساخت اینترنت خود سرمایه گذاری کرد. این هزینه ها ناشی از گسترش گسترده شبکه جهانی مرکز داده گوگل بود که شاید بزرگترین تلاش سازه ای در تاریخ صنعت مرکز داده باشد.

 تحولات در مراکز داده
تحولات در مراکز داده

امروز و فراتر از آن (مراکز داده)

مراکز داده امروزی از مدل مالکیت زیرساخت ، سخت افزار و نرم افزار به سمت مدل اشتراک و ظرفیت درخواستی در حال تغییر هستند.

تلاش برای پشتیبانی از خواسته های برنامه ، به ویژه از طریق فضای ابری ، قابلیت های مرکز داده امروز باید با امکانات فضای ابری مطابقت داشته باشد. به لطف تقویت ، کنترل هزینه و پشتیبانی فضای ابری ، کل صنعت مرکز داده در حال تغییر است. رایانش ابری همراه با مراکز داده امروزی به تصمیمات فناوری اطلاعات (IT) اجازه می دهد تا در مورد نحوه دسترسی به منابع به صورت “تماس با تماس” اتخاذ شوند ، اما مراکز داده خود به طور کامل در موجودیت خود باقی می مانند.

بخوانید : 5 دلیل اصلی قطعی مرکز داده و جلوگیری از آن

امتیاز شما به این مطلب

بدون دیدگاه

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *