به گفته ایلیا ساتسکور، محققان هوش مصنوعی باید روشهای جدیدی برای افزایش مقیاس هوش ماشینی پیدا کنند تا بر محدودیتها غلبه کنند.
ایلیا سوتسکِوِر، بنیانگذار OpenAI، در کنفرانس Neural Information Processing Systems (NeurIPS) 2024 که در ونکوور، کانادا برگزار شد، به توصیف پایان عصر پیشآموزش هوش مصنوعی پرداخت و ظهور ابرهوشمندی مصنوعی را پیشبینی کرد.
به گفته سوتسکِوِر، افزایش قدرت محاسباتی از طریق سختافزار، نرمافزار و الگوریتمهای یادگیری ماشین بر میزان کل دادههای موجود برای آموزش مدلهای هوش مصنوعی پیشی خواهد گرفت. این محقق هوش مصنوعی، دادهها را به سوختهای فسیلی تشبیه کرد که در نهایت به پایان میرسند:
(دادهها در حال رشد نیستند زیرا تنها یک اینترنت وجود دارد. حتی میتوان گفت که دادهها همانند سوخت فسیلی برای هوش مصنوعی هستند. این دادهها به طریقی ایجاد شدهاند و حالا ما از آنها استفاده میکنیم و به اوج دادهها رسیدهایم و میزان بیشتری وجود نخواهد داشت، ما باید با دادههایی که داریم سر کنیم.)
سوتسکِوِر پیشبینی کرد که AI agentها، دادههای مصنوعی و محاسبات زمان استنتاج مراحل بعدی تکامل هوش مصنوعی خواهند بود که نهایتاً به ظهور ابرهوشمندی مصنوعی منجر میشود.
ورود AI agentها به دنیای رمز ارزها
AI agentها که فراتر از مدلهای گفتگوی فعلی عمل میکنند و قادر به تصمیمگیری بدون دخالت انسان هستند، به موضوع محبوبی در حوزه رمز ارزها تبدیل شدهاند. این حرکت با رشد میم کوینهای هوش مصنوعی و مدلهای زبان بزرگ (LLM) مانند Truth Terminal گسترش یافته است.
Truth Terminal پس از اینکه شروع به تبلیغ میم کوینی به نام Goatseus Maximus (GOAT) کرد که به سرمایه بازاری ۱ میلیارد دلاری رسید، به سرعت محبوبیت یافت و توجه سرمایهگذاران خردهفروش و سرمایهگذاران خطرپذیر را جلب کرد.
آزمایشگاه هوش مصنوعی DeepMind متعلق به گوگل از مدل هوش مصنوعی Gemini 2.0 رونمایی کرد که عاملان هوش مصنوعی را تقویت خواهد کرد.
به گفته گوگل، عاملانی که با چارچوب Gemini 2.0 ساخته میشوند قادر خواهند بود به وظایف پیچیدهای مانند هماهنگی بین وبسایتها و منطق استدلال کمک کنند.
پیشرفتهایی که در عاملان هوش مصنوعی قادر به عمل و استدلال مستقل میشوند، زمینه را برای حرکت هوش مصنوعی فراتر از توهمات دادهای فراهم میکنند. این توهمات به دلیل مجموعههای نادرست دادهها و پیشتمرینهای فزایندهای که به استفاده از LLMهای قدیمیتر برای آموزش LLMهای جدیدتر متکی هستند، ایجاد میشوند که به مرور زمان عملکرد را کاهش میدهند.