به گزارش دپارتمان اخبار اقتصادی پایگاه خبری آبان نیوز ،
Oیکی از لذتهای غیرمنتظره موج گرما، صدای یک وزیر حملونقل محافظهکار بود که در حال صحبت کردن بود. Grant Shapps در بود امروز برنامه صبح سهشنبه یک اصل اساسی طراحی مهندسی خوب را توضیح میدهد: مشخصات را درست دریافت کنید. هنگامی که شما در حال ایجاد یک قطعه جدید از زیرساخت عمومی هستید، باید بتوانید محدودیت هایی را که انتظار می رود طراحی تحت آنها عمل کند، مشخص کنید.
شاپس توضیح داد که سیستم راهآهنی که او در حال حاضر بر آن نظارت میکند طوری طراحی شده است که بین دمای -10 تا 35 درجه سانتیگراد کار کند. و در یک حرکت زیرکانه برای جلوگیری از عصبانیت ایمیل روزانه او در سرمقالهای در مورد ریلهای راهآهن بریتانیایی که مطمئناً میتوانند با دمایی که تنها پنج درجه بالاتر از حد طراحی شدهاند کنار بیایند، اشاره کرد که اگر دمای هوا ۴۰ درجه سانتیگراد باشد، دمای واقعی ریلها ممکن است دو برابر آن باشد. به هر حال، آنها از فولاد ساخته شده اند و می توانند در گرما کمانش کنند، به همین دلیل است که برخی از خطوط آن روز بسته شده بودند.
جالب اینجاست که صنعت راه آهن تنها صنعتی نبود که نتوانست گرما را تحمل کند. هنگامی که دما در روز سه شنبه به 40.3 درجه سانتیگراد رسید، دیتاسنترهایی که توسط گوگل و اوراکل اداره می شدند باید آفلاین می شدند. مطابق با ثبت نام “انتخاب شد [Google] ماشینها برای جلوگیری از آسیبهای طولانیمدت خاموش میشوند که باعث میشود برخی از منابع، خدمات و ماشینهای مجازی در دسترس نباشند، وبسایتهای بدشانس و مواردی از این قبیل را از بین ببرند.» و در ساعت 3:41 بعد از ظهر مشتریان اوراکل هشداری دریافت کردند که به آنها میگفت: «در نتیجه دمای غیر فصلی در منطقه، زیر مجموعهای از زیرساختهای خنککننده در مرکز داده جنوب بریتانیا (لندن) با مشکل مواجه شدند. این امر منجر به این شد که زیر مجموعه ای از زیرساخت خدمات ما باید خاموش شود تا از خرابی های سخت افزاری کنترل نشده جلوگیری شود. این گام با هدف محدود کردن پتانسیل هرگونه تأثیر بلندمدت بر مشتریان ما برداشته شده است.
هیچ یک از اینها برای کسانی که به اندازه کافی خوش شانس بوده اند که از یکی از این مراکز دیدن کرده اند غافلگیر کننده نباشد. (از آنجایی که شرکتهای فناوری در مورد آنها بسیار حساس هستند، دعوتنامهها نادر هستند.) اساساً، آنها سولههای فلزی بزرگ و بدون پنجره هستند که اغلب در مکانهای دور ساخته میشوند و با حصارهای محیطی درجه نظامی احاطه شدهاند. در داخل هزاران رایانه شخصی از کار افتاده (به نام سرور) قرار دارند که در قفسه های عمودی چیده شده اند.
مراکز در اندازه های مختلف هستند. متوسط 100000 فوت مربع را پوشش می دهد. بزرگترین (قابل پیش بینی در چین) 6.3 متر فوت مربع را پوشش می دهد. تعداد سرورها در هر مرکز به منطقه آن و وظایفی که سرورها انجام می دهند بستگی دارد – از میزبانی وب سایت ها (قدرت کم) ، از طریق اجرای ربات های جاوا اسکریپت (میان رده) تا گرافیک و رندر ویدیو یا اجرای الگوریتم های یادگیری ماشینی (با شدت بالا). به عنوان مثال، تخمین زده شده است که یک مرکز 1 متر مربع می تواند هر چیزی از 800000 تا 6.3 متر ماشین را در ترکیب های مختلف در خود جای دهد.
همه چیز در مورد دیتاسنتر به یک چیز خلاصه می شود: نیروی الکتریکی. برای اجرای سرورها و خنک کردن آنها لازم است، زیرا آنها داغ کار می کنند. تصور کنید 800000 رایانه شخصی قدرتمند به طور مداوم کار می کنند و به این ایده خواهید رسید. بر این اساس، تهویه مطبوع فضای داخلی سرکوبگر آنها یک عملکرد حیاتی است. به همین دلیل است که شرکتهای فناوری اغلب سعی میکنند آنها را در مکانهایی قرار دهند که منبع برق ارزان و پایدار است و خنکسازی آسانتر است، زیرا دمای غالب پایینتر است.
به نوعی، مراکز داده (که زمانی «مزرعههای سرور» نامیده میشدند تا زمانی که صنعت فناوری تصمیم گرفت که یک اصطلاح بسیار پیش پا افتاده باشد) کلیساهای جامع دنیای شبکهای ما هستند. اما بر خلاف کلیساها که فقط دارای اهمیت نمادین، زیبایی شناختی، فرهنگی یا مذهبی هستند، مراکز داده یک ضرورت ملموس و سودمند دنیای آنلاین را تشکیل می دهند. بدون آنها، به هر حال، تلفن های هوشمند ما فقط وزن کاغذی گران قیمت خواهند بود. هر زمان که عکسی را در اینستاگرام پست میکنید، برای دوستی پیام متنی ارسال میکنید یا با یک اپلیکیشن آبوهوا مشورت میکنید تا ببینید چقدر هوا در Doncaster گرم است، با یک مرکز داده در جایی تعامل دارید.
به همین دلیل اتفاقی که هفته گذشته برای مراکز گوگل و اوراکل افتاد جالب توجه است. این یک یادآوری است که راه آهن تنها بخشی از زیرساخت های حیاتی جامعه ما نیست که در برابر گرمایش جهانی آسیب پذیر است. در حالی که Shapps در روز سهشنبه در حال توضیح واقعیتهای گسترش متالیک برای شنوندگان رادیو 4 بود، سوالی که در ذهن من وجود داشت این بود: پارامترهای طراحی برای دو مرکزی که باید روز سهشنبه آفلاین میشدند چه بود؟ آیا مهندسانی که آنها را مشخص کردند این فرض را داشتند که سوله ها هرگز با بیش از 35 درجه سانتیگراد مقابله نخواهند کرد؟ اگر چنین است، آنها – و ما – ممکن است دچار مشکل شویم.
درک اینکه چرا راهآهنها زیرساختهای حیاتی یک جامعه را تشکیل میدهند، آسان است: آنها چیزهای ملموس و به شدت فیزیکی هستند. اما فناوری پشت گوشیهای هوشمند ما، به نوعی، اثیری به نظر میرسد. نکته مفید در مورد مراکز داده این است که آنها به ما یادآوری می کنند که اینطور نیست.
چیزی که من خوانده ام
من پست می کنم پس هستم
چالش های آموزش دوره آشنایی با فلسفه برای نسل اینستاگرام چیست؟ ماری اسنایدر این موضوع را در یک مقاله جالب 3 کوارکس روزانه، در مورد پرتاب کانن در یک توپ، بررسی می کند.
بولتن پزشکی
Donald McNeil’s Monkeypox: آنچه شما در واقع باید بدانید یک قطعه واقعاً آموزنده در زیر پشته Common Sense است.
فاصله بحرانی
اگر احساس می کنید به دیدگاهی نیاز دارید، مقاله ای از مکس فیشر در نیویورک تایمز، آیا جهان واقعاً در حال فروپاشی است، یا فقط اینطور احساس می شود؟، تلاش برای گرفتن نمای طولانی را بررسی می کند.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار امروز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.