به گزارش دپارتمان اخبار جهان پایگاه خبری آبان نیوز ،
توسط پروفسور یوآنیس پیتاس، رئیس آکادمی بین المللی دکتری هوش مصنوعی (AIDA)
در صورت اتخاذ تدابیر نظارتی مناسب، تأثیر مثبت سیستمهای هوش مصنوعی میتواند تا حد زیادی بر جنبههای منفی آنها بیشتر باشد. پروفسور یوانیس پیتاس می نویسد که فن هراسی نه موجه است و نه راه حل.
در میان ترسهای فزاینده در مورد امکان خارج شدن از کنترل هوش مصنوعی به طور فزاینده، شاید خوب باشد که با در نظر گرفتن تمثیل زیر به سبک مردمان باستان شروع کنیم تا به توضیح روایت کمک کنیم.
روزی روزگاری، AIcity بسیار پررونق – اجازه دهید آن را اینطور بنامیم – با سرعت شگفت انگیزی رشد کرد.
AImasons آن برای ساختن خانه های زیبا و پیشرفته استفاده می کردند، سپس خانه های کم ارتفاع می ساختند. از آنجایی که این یک کار بسیار سودآور بود، آنها شروع به ساخت بلندمرتبه های پیچیده تر، با استفاده از کم و بیش از فناوری های مشابه کردند.
چند ترک اینجا و آنجا ظاهر شد، اما هیچ کس توجه دقیقی نکرد. AImasons آنقدر مجذوب موفقیت خود شدند که تنها با استفاده از همان تکنیکهای ساختوساز با سرعتی سرسامآور شروع به ساختن آسمانخراشهای بسیار بلندی کردند که به درستی «برجهای هوش مصنوعی بابل» نامیده میشدند.
برج های هوش مصنوعی آنها می تواند هزاران نفر از ساکنان را در خود جای دهد. با این حال، هیچ AImason واقعاً نمیتوانست بفهمد که چرا چنین ساختمانهای بسیار پیچیده تا این حد خوب عمل میکنند.
در همان زمان، شکاف ها و حوادث ناگوار با سرعت نگران کننده ای ادامه یافت.
هیچ کس نمی داند چه باید بکند، همه انتظار بدترین ها را دارند
اکنون، AImasons واقعاً نگران شدند: منشا مشکلات فنی چیست؟ آیا احتمال فروپاشی این برج های هوش مصنوعی وجود دارد؟ آیا ما قبلاً از حد مجاز ارتفاع عبور کرده ایم؟
صاحبان برج های هوش مصنوعی نگرانی های مادی بیشتری داشتند: اگر برج ها فرو بریزند چه اتفاقی می افتد؟ چه کسی خسارت آسیب دیدگان را جبران می کند؟
چه مقررات و قانونگذاری در این گونه موارد اعمال می شود؟ رقابت چه می کند؟ چگونه می توانیم از آن پیشی بگیریم؟
در اصل، جمعیت شهر بسیار مجذوب زندگی در این برج های هوش مصنوعی فوق العاده بودند. آنها از جثه بزرگشان شگفت زده شدند.
با این حال، تعداد زیادی از آنها با دیدن مشکلات غیرقابل توضیح در اینجا و آنجا و طرح آنها به آینده شروع به نگرانی کردند.
آنها مدام می پرسیدند آیا واقعاً ما قادر به ایجاد چنین ساختمان های پیچیده ای هستیم و آیا در چنین شهری ایمن هستیم؟
دولت AIcity بیش از حد درگیر مشکلات مبرم دیگری بود و اهمیتی برای رسیدگی به همه این مسائل نداشت.
به طور خلاصه: هیچ کس نمی دانست چه کاری باید انجام دهد، اما بسیاری از آنها شروع به ترس از بدترین چیز کردند.
تمثیل در اینجا به پایان می رسد – و من قول می دهم که این یک چت مبتنی بر هوش مصنوعی نبود.
شور و شوق هوش مصنوعی با تکنولوژی هراسی همراه است
با این حال، وقتی صحبت از هوش مصنوعی مولد و مدلهای زبان بزرگ مانند ChatGPT میشود، این وضعیت فعلی است. شور و شوق هوش مصنوعی در واقع با تکنولوژی هراسی همراه است.
این برای عموم مردم طبیعی است: آنها چیزهای جدید هیجان انگیز را دوست دارند، اما از ناشناخته ها می ترسند.
نکته جدید این است که چندین دانشمند برجسته، اگر نگوییم خود فنهراسی، به فنگرایان تبدیل شدند.
موردی که دانشمندان و صنعت گران خواستار ممنوعیت شش ماهه تحقیقات در زمینه هوش مصنوعی هستند یا بدبینی پروفسور جفری هینتون، دانشمند برتر هوش مصنوعی، از این قبیل است.
تنها معادل تاریخی مرتبطی که می توانم به یاد بیاورم، انتقاد بخشی از جامعه علمی در طول جنگ سرد از بمب های اتمی و هسته ای است. خوشبختانه، بشریت توانست این نگرانی ها را به شیوه ای نسبتاً رضایت بخش برطرف کند.
البته، همه حق دارند وضعیت فعلی امور هوش مصنوعی را زیر سوال ببرند. برای یک، هیچ کس نمی داند که چرا مدل های زبان بزرگ اینقدر خوب کار می کنند و آیا محدودیت دارند یا خیر.
همچنین خطرات زیادی وجود دارد که افراد بد ممکن است “بمب های هوش مصنوعی” ایجاد کنند، به ویژه اگر دولت ها از نظر مقررات، تماشاگران منفعل باقی بمانند.
اینها نگرانی های مشروعی هستند که ترس از ناشناخته ها را حتی در میان دانشمندان برجسته دامن می زنند. بالاخره آنها خود انسان هستند.
ما باید تاثیر مثبت هوش مصنوعی را به حداکثر برسانیم
با این حال، آیا تحقیقات هوش مصنوعی حتی به طور موقت متوقف می شود؟ به نظر من، نه، زیرا هوش مصنوعی پاسخ بشریت به جامعه جهانی و دنیای فیزیکی با پیچیدگی روزافزون است.
با افزایش پیچیدگی فیزیکی و اجتماعی، فرآیندها بسیار عمیق هستند و بی امان به نظر می رسند. هوش مصنوعی و شکلگیری شهروندی تنها امید ما برای انتقال آرام از جامعه اطلاعاتی فعلی به جامعه دانش است.
در غیر این صورت ممکن است با یک انفجار اجتماعی فاجعه بار مواجه شویم.
راه حل این است که درک خود را از پیشرفت های هوش مصنوعی عمیق تر کنیم، توسعه آن را تسریع کنیم و استفاده از آن را در جهت به حداکثر رساندن تاثیر مثبت آن تنظیم کنیم و در عین حال اثرات منفی آشکار و پنهان دیگر را به حداقل برسانیم.
تحقیقات هوش مصنوعی می تواند و باید متفاوت شود: بازتر، دموکراتیک تر، علمی و اخلاقی تر. و به همین منظور، راههایی وجود دارد که میتوانیم به شیوهای سازنده به موضوع نزدیک شویم.
به عنوان مثال، اولین کلمه در مورد موضوعات مهم تحقیقاتی هوش مصنوعی که تأثیر اجتماعی گسترده ای دارند باید به پارلمان ها و دولت های منتخب واگذار شود تا به شرکت ها یا دانشمندان فردی.
باید تمام تلاش خود را برای تسهیل کاوش در جنبه های مثبت هوش مصنوعی در پیشرفت اجتماعی و مالی و به حداقل رساندن جنبه های منفی آن انجام داد.
در صورت اتخاذ تدابیر نظارتی مناسب، تأثیر مثبت سیستمهای هوش مصنوعی میتواند تا حد زیادی بر جنبههای منفی آنها بیشتر باشد. تکنو هراسی نه موجه است و نه راه حل.
خطراتی برای دموکراسی و پیشرفت وجود دارد، اما می توان با آن مقابله کرد
به نظر من، بزرگترین تهدید فعلی از این واقعیت ناشی میشود که چنین سیستمهای هوش مصنوعی میتوانند از راه دور بسیاری از شهروندانی را که تحصیلات کم یا متوسط و/یا ظرفیت تحقیق کمی دارند فریب دهند.
این می تواند برای دموکراسی و هر شکلی از پیشرفت اجتماعی-اقتصادی بسیار خطرناک باشد.
در آینده نزدیک، ما باید با تهدید بزرگ ناشی از LLM و/یا استفاده از CAN در فعالیت های غیرقانونی مقابله کنیم (تقلب در امتحانات دانشگاه یک استفاده نسبتاً خوش خیم در فضای احتمالات جنایی مرتبط است).
علاوه بر این، تأثیر آنها بر نیروی کار و بازار در میان مدت بسیار مثبت خواهد بود.
برای کمک به این امر، به نظر من، سیستمهای هوش مصنوعی باید: الف) طبق قوانین بینالمللی ملزم به ثبت در «رجیستر سیستم هوش مصنوعی» شوند و ب) به کاربران خود اطلاع دهند که با یک سیستم هوش مصنوعی صحبت میکنند یا از نتایج آن استفاده میکنند.
از آنجایی که سیستمهای هوش مصنوعی تأثیر اجتماعی عظیمی دارند و در جهت به حداکثر رساندن مزایا و پیشرفت اجتماعی-اقتصادی هستند، فناوریهای پیشرفته سیستم هوش مصنوعی باید باز شوند.
دادههای مرتبط با هوش مصنوعی باید (حداقل تا حدی) دموکراتیزه شوند تا دوباره به حداکثر رساندن منفعت و پیشرفت اجتماعی-اقتصادی.
ما میتوانیم با حفظ مکانیسمهای نظارتی نیز اجازه پیشرفت بدهیم
طرحهای غرامت مالی قوی باید برای قهرمانان فناوری هوش مصنوعی پیشبینی شود تا هرگونه ضرر سود ناشی از باز بودن فوقالذکر را جبران کنند و از سرمایهگذاریهای قوی آینده در تحقیق و توسعه هوش مصنوعی، مانند ثبت اختراع فناوری و طرحهای صدور مجوز اجباری اطمینان حاصل کنند.
توازن تحقیقات هوش مصنوعی بین دانشگاه و صنعت باید برای به حداکثر رساندن بازده تحقیق و در عین حال حفظ رقابت و اعطای پاداش برای ریسک های تحقیق و توسعه انجام شود.
شیوه های آموزشی باید در تمام سطوح آموزشی مورد بازنگری قرار گیرد تا ضمن ایجاد نسل جدیدی از شهروندان خلاق و سازگار و دانشمندان (AI) از مزایای فناوری های هوش مصنوعی به حداکثر برسد.
و در نهایت، مکانیزم های نظارتی، نظارتی و تامین مالی مناسب هوش مصنوعی باید برای اطمینان از موارد فوق ایجاد و تقویت شود.
شاید در این صورت، تمثیل فوق چیزی بیش از یک افسانه سرگرم کننده (خفیف) نباشد.
دکتر یوآنیس پیتاس، استاد دانشگاه ارسطو تسالونیکی – دانشگاه AUTH و رئیس آکادمی بین المللی دکتری هوش مصنوعی (AIDA)، یک ابزار پیشرو در مطالعات هوش مصنوعی در سراسر اروپا است.
در یورونیوز، ما معتقدیم که همه دیدگاه ها مهم هستند. با ما در view@euronews.com تماس بگیرید تا پیشنهادات یا موارد ارسالی را ارسال کنید و بخشی از گفتگو باشید.
این خبر از خبرگزاری های بین المللی معتبر گردآوری شده است و سایت اخبار روز آبان نیوز صرفا نمایش دهنده است. آبان نیوز در راستای موازین و قوانین جمهوری اسلامی ایران فعالیت میکند لذا چنانچه این خبر را شایسته ویرایش و یا حذف میدانید، در صفحه تماس با ما گزارش کنید.