ماشین‌های تفکر پیوسته می‌توانند گام بعدی در هوش مصنوعی باشند

ماشین‌های تفکر پیوسته می‌توانند گام بعدی در هوش مصنوعی باشند

آیا مدل‌های هوش مصنوعی واقعاً «فکر می‌کنند»؟ این پرسشی مهم است، چون وقتی با ابزارهایی مثل ChatGPT یا Claude کار می‌کنیم، به‌نظر می‌رسد که ربات در حال فکر کردن است. حتی پیام‌هایی ظاهر می‌شوند که می‌گویند «در حال فکر کردن…» و این روزها می‌توانیم زنجیره تفکر (Chain of Thought) ربات را هم بخوانیم تا ببینیم چطور به نتیجه رسیده است.

اما واقعیت این است که اگرچه مدل‌های زبانی بزرگ (LLMها) و دیگر سیستم‌های هوش مصنوعی برخی جنبه‌های تفکر را تقلید می‌کنند، هنوز با چیزی که مغز انسان انجام می‌دهد تفاوت زیادی دارند. با این حال، پژوهش‌های جدید درباره «ماشین‌های تفکر پیوسته» (Continuous Thought Machines یا CTMها) ممکن است این وضعیت را تغییر دهند.

ماشین تفکر پیوسته چیست؟

ماشین تفکر پیوسته (CTM) نوعی جدید از شبکه عصبی است که عنصر زمان را وارد فرآیند تفکر می‌کند. برخلاف محاسبات لحظه‌ای و تک‌مرحله‌ای که در مدل‌های معمولی وجود دارد، در CTM هر نورون، فعالیت گذشته خود را به خاطر می‌سپارد و از آن تاریخچه برای تصمیم‌گیری درباره گام بعدی استفاده می‌کند. در ماه مه ۲۰۲۵، شرکت Sakana AI مدل CTM را در یک مقاله پژوهشی و یک پست وبلاگی به‌طور مفصل معرفی کرد.

CTM هر نورون

شرکت Sakana ادعا می‌کند که CTM نوعی جدید از شبکه عصبی مصنوعی است که شباهت بیشتری به نحوه عملکرد مغزهای طبیعی دارد. در CTM، نورون‌ها فقط یک‌بار فعال نمی‌شوند و تمام؛ بلکه دارای نوعی «حافظه کوتاه‌مدت» هستند و می‌توانند الگوهای شلیک خود را با نورون‌های دیگر هماهنگ کنند. وضعیت داخلی شبکه با الگوهای هماهنگی زمانی بین نورون‌ها تعریف می‌شود.

این موضوع یادآور هم‌زمانی نورونی در مغزهای زیستی است که منجر به ایجاد امواج مغزی می‌شود. این موضوع باعث می‌شود CTMها تفاوت اساسی با شبکه‌های عصبی عمیق استاندارد یا مدل‌های ترنسفورمر داشته باشند. به عنوان مثال، یک مدل ترنسفورمر معمولی (مثل مدل‌های زبانی امروزی) یک متن یا تصویر را در تعداد ثابتی از لایه‌ها و در یک «انفجار کوتاه پردازشی» تحلیل می‌کند و بعد از آن، به‌اصطلاح «خاموش» می‌شود تا ورودی بعدی از کاربر برسد.

نتایج چشمگیر (حداقل روی کاغذ)

تأثیرات این ایده می‌تواند بسیار عمیق باشد—اگر واقعاً درست عمل کند. در پست وبلاگ Sakana، مثالی از حل کردن ماز (maze) و نگاه کردن به تصاویر واقعی آورده شده که واقعاً جالب است:

«شگفت‌انگیز است که با وجود آنکه مدل به طور مشخص برای حل ماز طراحی نشده، راه‌حل نهایی بسیار قابل تفسیر و شبیه تفکر انسانی است؛ طوری که می‌توانیم ببینیم چطور مسیر را گام‌به‌گام دنبال می‌کند، انگار در حال “فکر کردن” است. درباره تصاویر واقعی هم، هیچ مشوق مشخصی برای نگاه کردن به اطراف وجود ندارد، اما مدل به‌طور شهودی این کار را می‌کند.»

در ادامه، این توضیح را نیز اضافه می‌کنند:

«ما این مدل را “ماشین تفکر پیوسته” (CTM) نامیده‌ایم، مدلی که می‌تواند از بُعد جدید زمان، دینامیک‌های پیچیده نورون‌ها و اطلاعات هم‌زمانی استفاده کند تا درباره یک وظیفه “فکر” کند و پیش از پاسخ دادن، برای آن برنامه‌ریزی انجام دهد. واژه “پیوسته” به این دلیل است که مدل کاملاً در یک بُعد داخلی تفکر فعالیت می‌کند. این مدل نسبت به داده‌هایی که دریافت می‌کند غیرهم‌زمان است؛ یعنی می‌تواند به یک شکل واحد هم روی داده‌های ایستا (مثل تصویر) و هم روی داده‌های دنباله‌دار (مثل متن) تفکر و استدلال کند. ما آن را روی طیف وسیعی از وظایف آزمایش کردیم و متوجه شدیم که در حل مسائل متنوع، بسیار قابل تفسیر عمل می‌کند.»

اگرچه نباید زودتر از موعد برای این مدل هیجان‌زده شد—تا وقتی که آزمایش‌های مستقل بیشتری روی آن انجام شود—اما برخی از نشانه‌ها کم‌کم وارد قلمرو شکل‌گیری مقدماتی نوعی آگاهی ابتدایی می‌شوند.

چرا CTM بهتر از شبکه‌های عصبی فعلی است؟

تمام ایده پشت CTM حذف مفهوم «حل یک‌باره» مسائل است—چیزی که تاکنون یکی از معیارهای استاندارد در مدل‌های هوش مصنوعی بوده. در حالت معمول، یک مدل باید در همان پنجره پردازشی محدود و یک‌مرحله‌ای خود، پاسخ درست را بدهد. به‌عنوان مثال، مدل‌هایی مانند ChatGPT که با ترنسفورمر کار می‌کنند، دقیقاً بر این مبنا طراحی شده‌اند.

در مقابل، CTM طوری طراحی شده که بتواند با گذر زمان فکر کند، تصمیم بگیرد، به عقب برگردد و مجدداً مسیرش را تنظیم کند—ویژگی‌هایی که بیشتر به فرآیند تفکر انسانی شباهت دارند.

CTM طوری طراحی شده که بتواند با گذر زمان فکر کند، تصمیم بگیرد، به عقب برگردد و مجدداً مسیرش را تنظیم کند—ویژگی‌هایی که بیشتر به فرآیند تفکر انسانی شباهت دارند.

یکی از دلایلی که مدل‌های زبانی بزرگ (LLMها) هنوز راه مؤثری برای اصلاح درصد کوچکی از اشتباهات خود ندارند همین مسئله است. روش‌هایی مانند زنجیره تفکر (Chain-of-Thought)، خودپیشنهادی (Self-Prompting) و حتی چرخاندن پرسش بین دو مدل مختلف برای بهبود پاسخ پیشرفت‌هایی محسوب می‌شوند، اما به نظر می‌رسد رویکرد CTM می‌تواند شکاف مهمی در زمینه دقت و قابلیت اطمینان پر کند.

بر اساس آنچه Sakana AI در مقالات خود بیان کرده، این فناوری می‌تواند به ترکیبی از قدرت محاسباتی LLMها و قابلیت سازگاری و رشد مغزهای زیستی منجر شود. این موضوع حتی می‌تواند تأثیر قابل‌توجهی بر حوزه رباتیک داشته باشد؛ به‌طوری‌که ماشین‌های فیزیکی بتوانند یاد بگیرند، رشد کنند و در دنیای واقعی به شکلی شبیه انسان‌ها عمل کنند.

قدرت تفکر پیوسته؛ اما با بهای خاص خود

هرچند تفکر مداوم قدرت بالایی دارد، اما بی‌هزینه هم نیست. CTMها بسیار پیچیده‌تر و منابع‌بر از شبکه‌های عصبی معمولی هستند. از آنجا که هر نورون باید تاریخچه فعالیت‌هایش را حفظ کند، وضعیت داخلی مدل به‌طرز قابل توجهی گسترده‌تر می‌شود. نتیجه این است که:

  • آموزش این مدل‌ها به قدرت پردازشی بالا و حافظه بیشتر نیاز دارد.
  • فرایند یادگیری ممکن است زمان‌برتر باشد و به داده‌های بیشتر برای همگرایی نیاز داشته باشد.
  • در زمان استفاده (Inference)، اگر مدل تصمیم بگیرد که چند مرحله فکر کند، پاسخ‌گویی می‌تواند کندتر شود.

افزون بر این، اکثر ابزارها و کتابخانه‌های فعلی بر اساس مدل‌های ایستا و غیرپیوسته طراحی شده‌اند، نه CTMها. پس اگر این رویکرد واقعاً مؤثر باشد، باید منتظر تغییرات اساسی در ابزارهای نرم‌افزاری باشیم.

کی باید تفکر را متوقف کرد؟

یک مشکل بزرگ دیگر این است که چه زمانی مدل باید “تفکر” را تمام کند؟ خطر «تفکر بی‌پایان» وجود دارد، یعنی CTM ممکن است در یک حلقه بی‌پایان گرفتار شود. بنابراین نیاز به مکانیزم‌های کنترلی پیشرفته است تا مدل بداند چه زمانی باید خروجی بدهد. در غیر این صورت، خطر تقویت خطا و حتی توهم‌زایی (hallucination) همانند مدل‌های فعلی وجود دارد، زیرا ممکن است مدل از حقیقت اولیه دور شود.

و نهایتاً، یک چالش مهم دیگر این است که CTMها هنوز از نظر دقت، به سطح مدل‌های ترنسفورمر پیشرفته نرسیده‌اند. طبق گزارشی از VentureBeat، CTM در آزمون‌های سنجش دقت، فعلاً ضعیف‌تر از مدل‌های برتر موجود عمل کرده است.

ذهن انسان: هنوز یک راز پیچیده

با اینکه CTMها از نظر عملکرد شباهت‌هایی به مغز انسان دارند، اما واقعیت این است که ما هنوز درک کاملی از ذهن خودمان هم نداریم. ممکن است محققان هوش مصنوعی به‌طور تصادفی به راه‌حلی شبیه چیزی که طبیعت از طریق انتخاب طبیعی ساخته، دست یافته باشند. یا شاید هم مسیری کاملاً موازی خلق کرده‌ایم که روزی به همان سطح توانایی برسد.

مدت‌هاست که این حس وجود دارد که مدل‌های زبانی بزرگ مثل LLMها تنها بخشی از پازل هوش عمومی هستند—مثلاً بیشتر شبیه به مرکز زبان در مغز عمل می‌کنند، نه خود مغز کامل. در نگاه اول، CTMها برای من مثل قطعه دیگری از این پازل بزرگ‌تر به‌نظر می‌رسند. به همین دلیل، روند پیشرفت Sakana AI را با علاقه زیادی دنبال خواهم کرد.

زهرا رشیدی
من زهرا رشیدی هستم، فارغ‌التحصیل کارشناسی ارشد مهندسی برق و الکترونیک و علاقه‌مند به دنیای فناوری، به‌ویژه گوشی‌های هوشمند. با بهره‌گیری از دانش فنی خود، به پوشش اخبار موبایل و بررسی فناوری‌های جدید در این حوزه می‌پردازم.