رای مقررات مربوط به هوش مصنوعی اتحادیه اروپا نزدیک است. ما هنوز مطمئن نیستیم که هوش مصنوعی چقدر باید مهار نشده باشد

به گزارش دپارتمان اخبار جهان پایگاه خبری آبان نیوز ،

نظرات بیان شده در این مقاله متعلق به نویسنده است و به هیچ وجه بیانگر موضع تحریریه یورونیوز نیست.

انتظار می رود قانون مورد انتظار اتحادیه اروپا در مورد هوش مصنوعی (AI) در پایان ماه جاری در پارلمان اروپا به رای گذاشته شود.

اما تلاش‌های اروپا برای تنظیم هوش مصنوعی ممکن است در ابتدای راه متوقف شود، زیرا قانون‌گذاران در تلاش برای توافق بر سر سؤالات مهم در مورد تعریف، دامنه و شیوه‌های ممنوعه هوش مصنوعی هستند.

در همین حال، تصمیم مایکروسافت در این هفته برای کنار گذاشتن کل تیم اخلاقی هوش مصنوعی علیرغم سرمایه‌گذاری ۱۱ میلیارد دلاری (۱۰.۳ میلیارد یورو) در OpenAI، سؤالاتی را در مورد اینکه آیا شرکت‌های فناوری واقعاً متعهد به ایجاد محافظ‌های مسئولانه برای محصولات هوش مصنوعی خود هستند، ایجاد می‌کند.

در قلب اختلافات پیرامون قانون هوش مصنوعی اتحادیه اروپا، نیاز به ارائه حقوق اساسی، مانند حریم خصوصی داده ها و مشارکت دموکراتیک، بدون محدودیت نوآوری است.

چقدر به الگوکراسی نزدیک هستیم؟

ظهور پلتفرم‌های پیشرفته هوش مصنوعی، از جمله راه‌اندازی ChatGPT در نوامبر سال گذشته، بحث‌های جهانی را در مورد سیستم‌های هوش مصنوعی به راه انداخته است.

همچنین دولت‌ها، شرکت‌ها و شهروندان عادی را مجبور کرده است تا به برخی از مسائل وجودی و فلسفی ناراحت‌کننده بپردازند.

چقدر به جامعه‌ای که توسط الگوریتم‌ها اداره می‌شود، تبدیل شده‌ایم؟ ما مجبور خواهیم شد از چه حقوقی چشم پوشی کنیم؟ و چگونه جامعه را در برابر آینده ای که در آن از این فناوری ها برای ایجاد آسیب استفاده می شود محافظت کنیم؟

هر چه زودتر بتوانیم به این سؤالات و سؤالات مشابه دیگر پاسخ دهیم، آمادگی بیشتری برای بهره‌مندی از مزایای این فناوری‌های مخرب خواهیم داشت – و همچنین خود را در برابر خطرات همراه با آنها حفظ می‌کنیم.

نوید نوآوری در فناوری با ورود پلتفرم‌های هوش مصنوعی مولد جدید، مانند ChatGPT و DALL-E 2، جهشی بزرگ به جلو داشته است، که می‌توانند کلمات، هنر و موسیقی را با مجموعه‌ای از دستورالعمل‌های ساده خلق کنند و پاسخ‌هایی شبیه به انسان ارائه دهند. سوالات پیچیده

این ابزارها را می توان به عنوان یک قدرت برای همیشه مورد استفاده قرار داد، اما اخبار اخیر مبنی بر اینکه ChatGPT در آزمون مجوز پزشکی ایالات متحده و آزمون MBA مدرسه بازرگانی وارتون گذرانده است، یادآور چالش های عملیاتی و اخلاقی است.

نهادهای آکادمیک، سیاست گذاران و جامعه در کل هنوز در حال تقلا برای رسیدن به عقب هستند.

ChatGPT آزمون تورینگ را گذراند – و هنوز در سنین نوجوانی است

تست تورینگ که در دهه 1950 توسعه یافت، مدتهاست که خط مقدم هوش مصنوعی بوده است.

این آزمایش برای تعیین اینکه آیا کامپیوتر قادر است مانند یک انسان فکر کند یا خیر استفاده شد.

آلن تورینگ، ریاضیدان و رمز شکن متقاعد شده بود که روزی یک انسان قادر نخواهد بود بین پاسخ های داده شده توسط یک شخص واقعی و یک ماشین تمایز قائل شود.

حق با او بود – آن روز فرا رسیده است. در سال های اخیر، فناوری های مخرب فراتر از هر شناختی پیشرفت کرده اند.

فن آوری های هوش مصنوعی و چت ربات های پیشرفته یادگیری ماشینی هنوز در سنین نوجوانی خود هستند، آنها به زمان بیشتری برای شکوفایی نیاز دارند.

اما آنها نمایی ارزشمند از آینده را به ما می دهند، حتی اگر این نگاه ها گاهی کمی مبهم باشند.

خوشبینان در میان ما به سرعت به پتانسیل عظیمی برای خیر ارائه شده توسط این فناوری ها اشاره می کنند: از بهبود تحقیقات پزشکی و توسعه داروها و واکسن های جدید تا ایجاد انقلاب در زمینه های آموزشی، دفاعی، اجرای قانون، تدارکات، تولید و غیره.

با این حال، سازمان‌های بین‌المللی مانند آژانس حقوق اساسی اتحادیه اروپا و کمیساریای عالی حقوق بشر سازمان ملل به درستی هشدار داده‌اند که این سیستم‌ها اغلب نمی‌توانند آنطور که در نظر گرفته شده کار کنند.

یک مورد بارز سیستم SyRI اداره مالیات هلند است که از الگوریتمی برای شناسایی تقلب های مشکوک در مزایای ناقض کنوانسیون اروپایی حقوق بشر استفاده می کرد.

چگونه بدون کاهش سرعت نوآوری تنظیم کنیم؟

در زمانی که هوش مصنوعی به طور اساسی جامعه را تغییر می دهد، ما درک جامعی از معنای انسان بودن نداریم.

با نگاهی به آینده، هیچ اتفاق نظری در مورد اینکه چگونه ما – و باید – واقعیت را در عصر هوش مصنوعی پیشرفته تجربه کنیم، وجود ندارد.

ما باید با مفاهیم ابزارهای پیشرفته هوش مصنوعی که هیچ مفهوم درست یا غلطی ندارند، آشنا شویم، ابزارهایی که بازیگران بدخواه به راحتی می توانند از آنها سوء استفاده کنند.

بنابراین چگونه می‌توانیم استفاده از هوش مصنوعی را کنترل کنیم تا با ارزش‌های انسانی همسو شود؟ من معتقدم که بخشی از پاسخ در ایجاد مقررات واضح برای توسعه دهندگان، توسعه دهندگان و کاربران هوش مصنوعی نهفته است.

همه طرف‌ها باید در مورد الزامات و محدودیت‌های استفاده از هوش مصنوعی در یک صفحه باشند و شرکت‌هایی مانند OpenAI و DeepMind این مسئولیت را دارند که محصولات خود را به گونه‌ای که کنترل‌شده و مسئولیت‌پذیر است به آگاهی عمومی برسانند.

حتی میرا موراتی، مدیر ارشد فناوری OpenAI و خالق ChatGPT، خواستار مقررات بیشتر هوش مصنوعی شده است.

اگر به درستی مدیریت شود، گفت‌وگوی مستقیم بین سیاست‌گذاران، تنظیم‌کننده‌ها و شرکت‌های هوش مصنوعی، تضمین‌های اخلاقی را بدون کند کردن نوآوری فراهم می‌کند.

یک چیز مسلم است: آینده هوش مصنوعی نباید تنها در دستان برنامه نویسان و مهندسان نرم افزار قرار گیرد.

در جست‌وجوی پاسخ‌ها، ما به اتحاد متخصصان از همه زمینه‌ها نیاز داریم

پروفسور نایف الرودان، فیلسوف، عصب‌شناس و متخصص اخلاق هوش مصنوعی، مورد قانع‌کننده‌ای برای یک نوع پیشگام از تحقیق فرا رشته‌ای – فلسفه عصبی-تکنو-فلسفی (NTP) است.

NTP برای ایجاد اتحادی از دانشمندان علوم اعصاب، فیلسوفان، دانشمندان علوم اجتماعی، متخصصان هوش مصنوعی و دیگران برای کمک به درک اینکه چگونه فناوری‌های مخرب بر جامعه و سیستم جهانی تأثیر می‌گذارند، اقدام می‌کند.

عاقلانه خواهد بود که توجه داشته باشیم.

الرودان و سایر دانشگاهیان که نقاط بین علم (عصبی) علم، فناوری و فلسفه را به هم متصل می کنند، به طور فزاینده ای در کمک به بشریت برای عبور از چالش های اخلاقی و وجودی ایجاد شده توسط این نوآوری های تغییر دهنده بازی و تأثیرات بالقوه آنها بر خطرات مرزی و پیامدهای آن مفید خواهند بود. آینده بشریت

در آینده ای نه چندان دور، ما شاهد انجام وظایفی از روبات ها خواهیم بود که بسیار فراتر از پردازش داده ها و پاسخگویی به دستورالعمل ها است: نسل جدیدی از انسان نماهای خودمختار با سطوح بی سابقه ای از احساسات.

قبل از اینکه این اتفاق بیفتد، باید اطمینان حاصل کنیم که چارچوب‌های اخلاقی و قانونی برای محافظت از ما در برابر جنبه‌های تاریک هوش مصنوعی وجود دارد.

دوراهی تمدنی اشاره می کند

در حال حاضر، ما ظرفیت خود را برای کنترل بیش از حد ارزیابی می کنیم و اغلب خطرات را دست کم می گیریم. این یک رویکرد خطرناک است، به ویژه در عصر وابستگی دیجیتال.

ما خود را در لحظه‌ای بی‌نظیر از زمان می‌بینیم، یک تقاطع تمدنی، جایی که هنوز عامل شکل‌دهی جامعه و آینده جمعی‌مان را داریم.

ما فرصت کوچکی برای فناوری‌های نوظهور مقاوم در برابر آینده داریم و مطمئن می‌شویم که در نهایت در خدمت بشریت استفاده می‌شوند.

این فرصت را از دست ندهیم.

اولیور رولوفس کارشناس امنیتی آلمانی و یکی از بنیانگذاران کنفرانس امنیت سایبری مونیخ (MCSC) است. او قبلاً رئیس بخش ارتباطات در کنفرانس امنیتی مونیخ بود، جایی که برنامه امنیت سایبری و امنیت انرژی را تأسیس کرد.

در یورونیوز، ما معتقدیم که همه دیدگاه ها مهم هستند. با ما در view@euronews.com تماس بگیرید تا پیشنهادات یا موارد ارسالی را ارسال کنید و بخشی از گفتگو باشید.

این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.

منبع

درباره ی aban_admin

مطلب پیشنهادی

PC سابق Met می گوید که در مورد فلش قاب وین کوزنز اشتباه کرده است | وین کوزنز

به گزارش دپارتمان اخبار بین المللی پایگاه خبری آبان نیوز ، افسر سابق پلیس مت که …