[ad_1]
پروژه مخفی *Q؛ هوش مصنوعی فرا انسانی هماکنون در میان ما است؟
در پژوهشهای هوش مصنوعی یا اصلا هر پژوهش علمی دیگری، ظهور و سقوط ایدهها مبتنیبر شایستهسالاری صرف نیست. معمولا دانشمندان و شرکتهایی که بیشترین منابع و بزرگترین تریبون را در اختیار دارند، بیشترین تأثیرگذاری را هم در این حوزه خواهند داشت.
در صنعت هوش مصنوعی، قدرت در دست چند شرکت ازجمله متا، گوگل، اوپنایآی، مایکروسافت و آنتروپیک تجمیع شده است. درحالحاضر، همین فرایند ناقص ایجاد اجماع بهترین چیزی است که داریم، اما هرروز محدودتر میشود؛ چراکه پژوهشهایی که زمانی عمدتاً جلوی چشمان همه انجام میشد، حالا بهصورت کاملاً مخفیانه صورت میگیرد.
در طول ده سال گذشته و زمانیکه شرکتهای بزرگ فناوری از پتانسیل تجاریسازی فوقالعادهی هوش مصنوعی آگاه شدند، سعی کردند دانشجویان را با پیشنهادهای بسیار وسوسهانگیز از فضای دانشگاه دور کنند و به سیلیکونولی بکشانند. بسیاری از دانشجویان دکترا برای پیوستن به آزمایشگاه این شرکتها دیگر منتظر دریافت مدرک خود نمیمانند و بسیاری از پژوهشگرانی که تصمیم میگیرند در دانشگاه بمانند، از همین شرکتها برای انجام پروژههایشان فاند دریافت میکنند. این روزها، بسیاری از پژوهشهای هوش مصنوعی در شرکتهای تکنولوژیای انجام میشود که در تلاشند باارزشترین دستاوردهایشان را از چشم رقبای تجاری خود پنهان کنند.
اوپنایآی از آن دسته شرکتهایی است که به صراحت اعلام کرده هدف از اجرای تمام پروژههایش رسیدن به AGI است. این شرکت مرموز دلیل محرمانه بودن پروژههایش را به خطرات هوش مصنوعی ربط داده و میگوید هر چیزی که بتواند راه رسیدن به ابرهوش را تسریع کند باید تحت نظارت و کنترل شدید قرار بگیرد، وگرنه ممکن است به تهدیدی علیه بشریت تبدیل شود.
البته OpenAI آشکارا اعتراف کرده که محرمانه نگه داشتن پروژههایش اجازه میدهد فاصلهاش را از رقبا حفظ کند. ایلیا سوتسکیور، دانشمند ارشد اوپنایآی در ماه مارس به ورج گفت «توسعهی GPT-4 کار آسانی نیست. تقریبا تمام کارمندان شرکت به مدت بسیار طولانی در توسعهی این مدل زبانی درگیر بودند. شرکتهای بسیار زیادی وجود دارند که میخواهند دقیقا همین کار ما را انجام دهند.»
آیا باید از پروژهی *Q بترسیم؟
افرادی که مانند بنیانگذاران OpenAI از تهدید هوش مصنوعی علیه بشریت نگران هستند، از این میترسند که قابلیتهایی مثل قدرت استدلال منجر به ظهور هوش مصنوعی افسارگسیخته شود. اگر چنین سیستمهای هوش مصنوعی اجازه داشته باشند اهداف خودشان را تعیین کنند و در دنیای فیزیکی و دیجیتال دخالت کنند، دغدغههای امنیتی بزرگی ایجاد میشود.
اما اگرچه توانایی حل مسائل ریاضی ممکن است ما را یک قدم به سیستمهای هوش مصنوعی قدرتمند نزدیک کند، حل این مدل مسائل بهمعنی ظهور ابرهوش نیست. البته این اولین باری نیست که مدل جدیدی جنجال دستیابی به AGI به راه انداخته است. سال گذشته، پژوهشگران دربارهی مدل همهکارهی Gato که توسط دیپمایند گوگل توسعه یافته است، همین نظر را داشتند.
گاتو بهگفتهی MIT Technology Review، سیستمی است که «چندین تسک مختلف را همزمان یاد میگیرد و میتواند بین آنها جابهجا شود و بدون فراموشی مهارتهای قبلی، مهارتهای جدید بیاموزد.» گاتو مدلی است که میتواند بازیهای آتاری انجام دهد، برای تصاویر کپشن بنویسد، چت کند و حتی با بازوی رباتی واقعی، قطعههای مکعبی را روی هم بگذارد.
آن زمان، برخی از پژوهشگران AI مدعی شدند دیپمایند «در شرف» دستیابی به AGI است، چون گاتو میتواند تسکهای مختلف بسیاری را بهخوبی انجام دهد. ماجرای ادعای خودآگاه شدن هوش مصنوعی LaMDA گوگل هم همین بود. جنجال و هیاهو بر سر هوش مصنوعی چیز تازهای نیست، فقط هر بار از پروژه و شرکت دیگری سر در میآورد.
این جنجالها شاید ابزار فوقالعاده موثری در پرآوازه شدن نام شرکتها باشند، اما آسیبی که به صنعت هوش مصنوعی وارد میکنند، بیشتر از سودشان است، چراکه حواس افراد را از مشکلات واقعی و ملموس هوش مصنوعی پرت میکنند. هرچند شایعات دربارهی مدل هوش مصنوعی قدرتمند میتواند زنگ اخطاری برای صنعت تکنولوژیِ مقرارتگریز باشد؛ چیزی نمانده تا اتحادیهی اروپا قانون هوش مصنوعی را نهایی کند.
اینروزها، یکی از بزرگترین کشمکشها بین قانونگذاران این است که آیا شرکتهای تکنولوژی باید برای قانونمند کردن مدلهای هوش مصنوعی خود قدرت بیشتری داشته باشند یا خیر. چند وقت پیش نیز اجلاس ایمنی هوش مصنوعی برای اولینبار در تاریخ برگزار شد تا پیش از افسارگسیخته شدن هوش مصنوعی، برای کنترل آن چارهای اندیشید.
درنهایت، میتوان با اطمینان گفت تقریباً تمام شرکتهای فعال در حوزهی هوش مصنوعی به دنبال دستیابی به AGI هستند و OpenAI دوست دارد اول از همه به این هدف برسد. پژوهشگران این شرکت زمانی پیشبینی کرده بودهاند که تا رسیدن به AGI شاید فقط ده سال دیگر فاصله دارند. ازکجا معلوم؛ شاید *Q گام بزرگی در این مسیر باشد.
[ad_2]
منبع
نظرات کاربران