به گزارش دپارتمان اخبار جهان پایگاه خبری آبان نیوز ،
نظرات بیان شده در این مقاله متعلق به نویسنده است و به هیچ وجه بیانگر موضع تحریریه یورونیوز نیست.
انتظار می رود قانون مورد انتظار اتحادیه اروپا در مورد هوش مصنوعی (AI) در پایان ماه جاری در پارلمان اروپا به رای گذاشته شود.
اما تلاشهای اروپا برای تنظیم هوش مصنوعی ممکن است در ابتدای راه متوقف شود، زیرا قانونگذاران در تلاش برای توافق بر سر سؤالات مهم در مورد تعریف، دامنه و شیوههای ممنوعه هوش مصنوعی هستند.
در همین حال، تصمیم مایکروسافت در این هفته برای کنار گذاشتن کل تیم اخلاقی هوش مصنوعی علیرغم سرمایهگذاری ۱۱ میلیارد دلاری (۱۰.۳ میلیارد یورو) در OpenAI، سؤالاتی را در مورد اینکه آیا شرکتهای فناوری واقعاً متعهد به ایجاد محافظهای مسئولانه برای محصولات هوش مصنوعی خود هستند، ایجاد میکند.
در قلب اختلافات پیرامون قانون هوش مصنوعی اتحادیه اروپا، نیاز به ارائه حقوق اساسی، مانند حریم خصوصی داده ها و مشارکت دموکراتیک، بدون محدودیت نوآوری است.
چقدر به الگوکراسی نزدیک هستیم؟
ظهور پلتفرمهای پیشرفته هوش مصنوعی، از جمله راهاندازی ChatGPT در نوامبر سال گذشته، بحثهای جهانی را در مورد سیستمهای هوش مصنوعی به راه انداخته است.
همچنین دولتها، شرکتها و شهروندان عادی را مجبور کرده است تا به برخی از مسائل وجودی و فلسفی ناراحتکننده بپردازند.
چقدر به جامعهای که توسط الگوریتمها اداره میشود، تبدیل شدهایم؟ ما مجبور خواهیم شد از چه حقوقی چشم پوشی کنیم؟ و چگونه جامعه را در برابر آینده ای که در آن از این فناوری ها برای ایجاد آسیب استفاده می شود محافظت کنیم؟
هر چه زودتر بتوانیم به این سؤالات و سؤالات مشابه دیگر پاسخ دهیم، آمادگی بیشتری برای بهرهمندی از مزایای این فناوریهای مخرب خواهیم داشت – و همچنین خود را در برابر خطرات همراه با آنها حفظ میکنیم.
نوید نوآوری در فناوری با ورود پلتفرمهای هوش مصنوعی مولد جدید، مانند ChatGPT و DALL-E 2، جهشی بزرگ به جلو داشته است، که میتوانند کلمات، هنر و موسیقی را با مجموعهای از دستورالعملهای ساده خلق کنند و پاسخهایی شبیه به انسان ارائه دهند. سوالات پیچیده
این ابزارها را می توان به عنوان یک قدرت برای همیشه مورد استفاده قرار داد، اما اخبار اخیر مبنی بر اینکه ChatGPT در آزمون مجوز پزشکی ایالات متحده و آزمون MBA مدرسه بازرگانی وارتون گذرانده است، یادآور چالش های عملیاتی و اخلاقی است.
نهادهای آکادمیک، سیاست گذاران و جامعه در کل هنوز در حال تقلا برای رسیدن به عقب هستند.
ChatGPT آزمون تورینگ را گذراند – و هنوز در سنین نوجوانی است
تست تورینگ که در دهه 1950 توسعه یافت، مدتهاست که خط مقدم هوش مصنوعی بوده است.
این آزمایش برای تعیین اینکه آیا کامپیوتر قادر است مانند یک انسان فکر کند یا خیر استفاده شد.
آلن تورینگ، ریاضیدان و رمز شکن متقاعد شده بود که روزی یک انسان قادر نخواهد بود بین پاسخ های داده شده توسط یک شخص واقعی و یک ماشین تمایز قائل شود.
حق با او بود – آن روز فرا رسیده است. در سال های اخیر، فناوری های مخرب فراتر از هر شناختی پیشرفت کرده اند.
فن آوری های هوش مصنوعی و چت ربات های پیشرفته یادگیری ماشینی هنوز در سنین نوجوانی خود هستند، آنها به زمان بیشتری برای شکوفایی نیاز دارند.
اما آنها نمایی ارزشمند از آینده را به ما می دهند، حتی اگر این نگاه ها گاهی کمی مبهم باشند.
خوشبینان در میان ما به سرعت به پتانسیل عظیمی برای خیر ارائه شده توسط این فناوری ها اشاره می کنند: از بهبود تحقیقات پزشکی و توسعه داروها و واکسن های جدید تا ایجاد انقلاب در زمینه های آموزشی، دفاعی، اجرای قانون، تدارکات، تولید و غیره.
با این حال، سازمانهای بینالمللی مانند آژانس حقوق اساسی اتحادیه اروپا و کمیساریای عالی حقوق بشر سازمان ملل به درستی هشدار دادهاند که این سیستمها اغلب نمیتوانند آنطور که در نظر گرفته شده کار کنند.
یک مورد بارز سیستم SyRI اداره مالیات هلند است که از الگوریتمی برای شناسایی تقلب های مشکوک در مزایای ناقض کنوانسیون اروپایی حقوق بشر استفاده می کرد.
چگونه بدون کاهش سرعت نوآوری تنظیم کنیم؟
در زمانی که هوش مصنوعی به طور اساسی جامعه را تغییر می دهد، ما درک جامعی از معنای انسان بودن نداریم.
با نگاهی به آینده، هیچ اتفاق نظری در مورد اینکه چگونه ما – و باید – واقعیت را در عصر هوش مصنوعی پیشرفته تجربه کنیم، وجود ندارد.
ما باید با مفاهیم ابزارهای پیشرفته هوش مصنوعی که هیچ مفهوم درست یا غلطی ندارند، آشنا شویم، ابزارهایی که بازیگران بدخواه به راحتی می توانند از آنها سوء استفاده کنند.
بنابراین چگونه میتوانیم استفاده از هوش مصنوعی را کنترل کنیم تا با ارزشهای انسانی همسو شود؟ من معتقدم که بخشی از پاسخ در ایجاد مقررات واضح برای توسعه دهندگان، توسعه دهندگان و کاربران هوش مصنوعی نهفته است.
همه طرفها باید در مورد الزامات و محدودیتهای استفاده از هوش مصنوعی در یک صفحه باشند و شرکتهایی مانند OpenAI و DeepMind این مسئولیت را دارند که محصولات خود را به گونهای که کنترلشده و مسئولیتپذیر است به آگاهی عمومی برسانند.
حتی میرا موراتی، مدیر ارشد فناوری OpenAI و خالق ChatGPT، خواستار مقررات بیشتر هوش مصنوعی شده است.
اگر به درستی مدیریت شود، گفتوگوی مستقیم بین سیاستگذاران، تنظیمکنندهها و شرکتهای هوش مصنوعی، تضمینهای اخلاقی را بدون کند کردن نوآوری فراهم میکند.
یک چیز مسلم است: آینده هوش مصنوعی نباید تنها در دستان برنامه نویسان و مهندسان نرم افزار قرار گیرد.
در جستوجوی پاسخها، ما به اتحاد متخصصان از همه زمینهها نیاز داریم
پروفسور نایف الرودان، فیلسوف، عصبشناس و متخصص اخلاق هوش مصنوعی، مورد قانعکنندهای برای یک نوع پیشگام از تحقیق فرا رشتهای – فلسفه عصبی-تکنو-فلسفی (NTP) است.
NTP برای ایجاد اتحادی از دانشمندان علوم اعصاب، فیلسوفان، دانشمندان علوم اجتماعی، متخصصان هوش مصنوعی و دیگران برای کمک به درک اینکه چگونه فناوریهای مخرب بر جامعه و سیستم جهانی تأثیر میگذارند، اقدام میکند.
عاقلانه خواهد بود که توجه داشته باشیم.
الرودان و سایر دانشگاهیان که نقاط بین علم (عصبی) علم، فناوری و فلسفه را به هم متصل می کنند، به طور فزاینده ای در کمک به بشریت برای عبور از چالش های اخلاقی و وجودی ایجاد شده توسط این نوآوری های تغییر دهنده بازی و تأثیرات بالقوه آنها بر خطرات مرزی و پیامدهای آن مفید خواهند بود. آینده بشریت
در آینده ای نه چندان دور، ما شاهد انجام وظایفی از روبات ها خواهیم بود که بسیار فراتر از پردازش داده ها و پاسخگویی به دستورالعمل ها است: نسل جدیدی از انسان نماهای خودمختار با سطوح بی سابقه ای از احساسات.
قبل از اینکه این اتفاق بیفتد، باید اطمینان حاصل کنیم که چارچوبهای اخلاقی و قانونی برای محافظت از ما در برابر جنبههای تاریک هوش مصنوعی وجود دارد.
دوراهی تمدنی اشاره می کند
در حال حاضر، ما ظرفیت خود را برای کنترل بیش از حد ارزیابی می کنیم و اغلب خطرات را دست کم می گیریم. این یک رویکرد خطرناک است، به ویژه در عصر وابستگی دیجیتال.
ما خود را در لحظهای بینظیر از زمان میبینیم، یک تقاطع تمدنی، جایی که هنوز عامل شکلدهی جامعه و آینده جمعیمان را داریم.
ما فرصت کوچکی برای فناوریهای نوظهور مقاوم در برابر آینده داریم و مطمئن میشویم که در نهایت در خدمت بشریت استفاده میشوند.
این فرصت را از دست ندهیم.
اولیور رولوفس کارشناس امنیتی آلمانی و یکی از بنیانگذاران کنفرانس امنیت سایبری مونیخ (MCSC) است. او قبلاً رئیس بخش ارتباطات در کنفرانس امنیتی مونیخ بود، جایی که برنامه امنیت سایبری و امنیت انرژی را تأسیس کرد.
در یورونیوز، ما معتقدیم که همه دیدگاه ها مهم هستند. با ما در view@euronews.com تماس بگیرید تا پیشنهادات یا موارد ارسالی را ارسال کنید و بخشی از گفتگو باشید.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.