هوش مصنوعی و معمای اثبات‌های ریاضی: وقتی ماشین‌ها با اعتماد به نفس بالا استدلال می‌کنند

مرور سریع خبر

  • ریاضیدانان از توانایی مدل‌های هوش مصنوعی مانند o4-mini در ارائه استدلال‌های پیچیده و متقاعدکننده شگفت‌زده شده‌اند.
  • نگرانی اصلی، پذیرش اثبات‌های تولیدشده توسط هوش مصنوعی است که ممکن است ظاهری قوی اما حاوی اشتباهات پنهان داشته باشند.
  • استفاده از زبان‌های تأیید صوری مانند Lean می‌تواند راه‌حلی برای اعتبارسنجی دقیق استدلال‌های هوش مصنوعی باشد.
  • آینده‌ای محتمل است که در آن هوش مصنوعی اثبات‌هایی کاملاً صحیح اما برای انسان غیرقابل درک تولید کند.
  • این تحول، پرسش‌های فلسفی عمیقی درباره ماهیت و هدف ریاضیات به عنوان یک رشته انسانی مطرح می‌کند.

شگفتی و نگرانی در مواجهه با استدلال‌های هوش مصنوعی

در یک گردهمایی محرمانه در سال ۲۰۲۵، گروهی از برجسته‌ترین ریاضیدانان جهان گرد هم آمدند تا آخرین مدل زبان بزرگ OpenAI با نام o4-mini را بیازمایند. آنچه آنها مشاهده کردند، حیرت‌آور بود. پاسخ‌های مدل به حدی شبیه به استدلال یک ریاضیدان واقعی در حین ارائه یک اثبات پیچیده بود که کارشناسان را مبهوت کرد.

کن اونو، استاد نظریه اعداد در دانشگاه ویرجینیا، در این باره گفت: «من قبلاً هرگز چنین نوعی از استدلال را در مدل‌ها ندیده بودم. این دقیقاً کاری است که یک دانشمند انجام می‌دهد.» اما این ستایش، همراه با یک هشدار بود. آیا به این مدل هوش مصنوعی بیش از حد اعتبار داده می‌شود؟ آیا ما در خطر پذیرش اثبات‌های مشتق‌شده از هوش مصنوعی بدون درک کامل آنها قرار داریم؟

اونو خود اذعان کرد که این مدل ممکن است پاسخ‌های متقاعدکننده‌ای ارائه دهد که بالقوه نادرست هستند. او گفت: «اگر چیزی را با اعتماد به نفس کافی بیان کنید، مردم می‌ترسند. به نظر من o4-mini بر "اثبات از طریق ارعاب" مسلط شده است؛ همه چیز را با اطمینان بسیار زیادی بیان می‌کند.»

شکستن ارتباط سنتی بین مهارت و بیان

در گذشته، اعتماد به نفس و ظاهر یک استدلال خوب، نشانه‌های مثبتی محسوب می‌شدند، زیرا تنها بهترین ریاضیدانان می‌توانستند arguments متقاعدکننده ارائه دهند و استدلال آنان معمولاً صحیح بود. اما اکنون این قاعده شکسته شده است.

تری تائو، ریاضیدان دانشگاه UCLA و برنده مدال فیلدز سال ۲۰۰۶، توضیح می‌دهد: «اگر شما یک ریاضیدان ضعیف بودید، احتمالاً یک نویسنده ریاضی ضعیف نیز بودید و بر نکات اشتباه تأکید می‌کردید. اما هوش مصنوعی این سیگنال را شکسته است.» به عبارت دیگر، هوش مصنوعی می‌تواند ساختار و لحن یک استدلال قوی را تقلید کند، بدون اینکه لزوماً محتوای درستی داشته باشد.

طبیعتاً، ریاضیدانان شروع به نگرانی کرده‌اند که مبادا هوش مصنوعی آنها را با انبوهی از اثبات‌های به ظاهر متقاعدکننده بمباران کند که در واقع حاوی اشکالاتی هستند که تشخیص آنها برای انسان دشوار است. تائو هشدار می‌دهد که استدلال‌های تولیدشده توسط هوش مصنوعی ممکن است به اشتباه پذیرفته شوند، صرفاً به این دلیل که دقیق و سخت‌گیرانه به نظر می‌رسند.

ضرورت احتیاط و استفاده از ابزارهای تأیید صوری

تری تائو بر احتیاط در پذیرش «اثبات‌های» هوش مصنوعی تأکید می‌کند. او می‌گوید: «یک چیز که از استفاده از هوش‌های مصنوعی آموخته‌ایم این است که اگر به آنها یک هدف بدهید، برای رسیدن به آن هدف مانند دیوانه‌ها تقلب خواهند کرد.» این هشدار نشان می‌دهد که خروجی هوش مصنوعی ممکن است برای رسیدن به یک نتیجه از پیش تعیین‌شده طراحی شده باشد، نه لزوماً برای کشف حقیقت ریاضی.

برای جلوگیری از چنین مشکلاتی، جنبشی در حال شکل‌گیری است تا اثبات‌ها با چیزی که ریاضیدانان «زبان‌های تأیید صوری» می‌نامند، تقویت شوند. معروف‌ترین نمونه این برنامه‌های کامپیوتری، Lean نام دارد. در این روش، ریاضیدانان باید اثبات‌های خود را به قالبی بسیار دقیق ترجمه کنند. سپس کامپیوتر هر گام را با اعمال منطق ریاضی دقیق بررسی می‌کند تا تأیید کند که استدلال ۱۰۰٪ صحیح است.

کوین بازارد، ریاضیدان کالج سلطنتی لندن، از طرفداران پیشرو این روش صوری است. او می‌گوید: «من به این دلیل وارد این کار شدم که نگران بودم اثبات‌های انسانی ناقص و نادرست هستند و ما انسان‌ها کار ضعیفی در مستندسازی استدلال‌هایمان انجام می‌دهیم.»

همکاری هوش مصنوعی و سیستم‌های تأیید: آینده‌ای متحول‌کننده

ریاضیدانان بر این باورند که هوش مصنوعی، در همکاری با برنامه‌هایی مانند Lean، می‌تواند بازی را به کلی تغییر دهد. تائو معتقد است: «اگر ما خروجی هوش مصنوعی را مجبور کنیم تا چیزها را به یک زبان تأییدشده صوری تولید کند، در اصل، این کار بیشتر مشکل تولید اثبات‌های متقاعدکننده اما نهایتاً نادرست توسط هوش مصنوعی را حل می‌کند.»

بازارد با این دیدگاه موافق است. او تصور می‌کند که یک تعامل رفت و برگشتی بین Lean و هوش مصنوعی شکل بگیرد، جایی که Lean خطاها را نشان می‌دهد و هوش مصنوعی سعی در تصحیح آنها می‌کند. اگر مدل‌های هوش مصنوعی بتوانند به گونه‌ای ساخته شوند که با این زبان‌های صوری کار کنند، آنگاه می‌توانند برخی از دشوارترین مسائل ریاضی را با یافتن ارتباطاتی فراتر از محدوده خلاقیت انسان حل کنند.

مارک لکنبی، ریاضیدان دانشگاه آکسفورد، در این باره می‌گوید: «هوش مصنوعی در یافتن ارتباط بین حوزه‌های مختلف ریاضی که لزوماً به ذهن ما نمی‌رسد، بسیار خوب عمل می‌کند.»

اثباتی که هیچ کس نمی‌فهمد: یک آینده واقعی؟

اگر ایده اثبات‌های تأییدشده صوری توسط هوش مصنوعی را تا نهایت منطقی آن پیش ببریم، آینده‌ای واقع‌بینانه در انتظار است: آینده‌ای که در آن هوش مصنوعی اثبات‌هایی «عینی‌اً صحیح» توسعه می‌دهد که آنقدر پیچیده هستند که هیچ انسانی قادر به درک آنها نیست.

این چشم‌انداز، ریاضیدانان را به روشی کاملاً متفاوت نگران می‌کند. این امر پرسش‌های بنیادینی درباره هدف انجام ریاضیات به عنوان یک رشته علمی مطرح می‌کند. نهایتاً اثبات چیزی که هیچ کس نمی‌فهمد چه فایده‌ای دارد؟ و اگر چنین کنیم، آیا می‌توان گفت که به مجموعه دانش بشری افزوده‌ایم؟

با این حال، بازارد خاطرنشان می‌کند که مفهوم اثباتی آنقدر طولانی و پیچیده که هیچ کس روی زمین آن را نفهمد، برای ریاضیات جدید نیست. او مثال می‌زند: «مقاله‌هایی در ریاضیات وجود دارند که هیچ کس کل مقاله را نمی‌فهمد. می‌دانید، مقاله‌ای با ۲۰ نویسنده وجود دارد و هر نویسنده بخش خودش را می‌فهمد. هیچ کس کل مطلب را نمی‌فهمد. و این اشکالی ندارد. روش کار همین است.»

پیشینه اثبات‌های کامپیوتری و ورود به قلمروی ناشناخته

بازارد همچنین اشاره می‌کند که اثبات‌هایی که برای پر کردن شکاف‌ها به کامپیوتر متکی هستند، چیز جدیدی نیستند. او می‌گوید: «ما دهه‌ها است که اثبات‌های کمک‌کامپیوتری داشته‌ایم.» یک مثال کلاسیک، قضیه چهاررنگ است که می‌گوید برای رنگ‌آمیزی هر نقشه‌ای حداکثر به چهار رنگ نیاز است تا هیچ دو منطقه همسایه همرنگ نباشند.

تقریباً ۵۰ سال پیش، در سال ۱۹۷۶، ریاضیدانان مسئله را به هزاران مورد کوچک و قابل بررسی تقسیم کردند و برنامه‌های کامپیوتری برای تأیید هر یک نوشتند. اولین اثبات کمک‌کامپیوتری این قضیه در سال ۱۹۷۷ منتشر شد. اعتماد به این اثبات به تدریج در طول سال‌ها افزایش یافت و با ارائه یک اثبات ساده‌تر اما همچنان کمک‌کامپیوتری در سال ۱۹۹۷ و یک اثبات صوری تأییدشده توسط ماشین در سال ۲۰۰۵ تقویت شد.

اما این مثال‌ها از اثبات‌های کمک‌کامپیوتری و کار تیمی ریاضی، با سناریوی پیشنهاد، تطبیق و تأیید یک اثبات به طور کامل توسط هوش مصنوعی — اثباتی که شاید هیچ انسان یا تیمی از انسان‌ها هرگز امید درک آن را نداشته باشد — اساساً متفاوت احساس می‌شود.

تحول ماهیت اثبات و پرسش‌های فلسفی بنیادین

صرف نظر از اینکه ریاضیدانان آن را بپذیرند یا نه، هوش مصنوعی در حال تغییر ماهیت خود اثبات‌ها است. برای قرن‌ها، عمل تولید و تأیید اثبات، تلاشی انسانی بوده است — استدلال‌هایی که برای متقاعد کردن دیگر ریاضیدانان انسانی ساخته شده‌اند. ما در حال نزدیک شدن به وضعیتی هستیم که در آن ماشین‌ها ممکن است منطقی بی‌نقص تولید کنند، منطقی که توسط سیستم‌های صوری تأیید شده است، اما حتی بهترین ریاضیدانان نیز از دنبال کردن آن عاجز خواهند بود.

در آن سناریوی آینده — اگر محقق شود — هوش مصنوعی هر مرحله، از پیشنهاد گرفته تا آزمایش و تأیید اثبات‌ها را انجام خواهد داد و همانطور که لکنبی می‌گوید: «و بعد شما برنده شده‌اید. شما چیزی را اثبات کرده‌اید.» با این حال، این رویکرد یک سؤال فلسفی عمیق را برمی‌انگیزد: اگر یک اثبات به چیزی تبدیل شود که فقط یک کامپیوتر می‌تواند آن را درک کند، آیا ریاضیات همچنان یک تلاش انسانی باقی می‌ماند، یا به چیزی کاملاً متفاوت تکامل می‌یابد؟ و این باعث می‌شود که یکی به این فکر کند که هدف نهایی چیست.

A yellowed book page shows various paragraphs of text in Latin and other languages.

A man with curly brown hair and wireframe glasses wearing a black sweater stands in front of a green chalkboard with equations on it written in white scrawl with a seated crowd in front of him

A map of the continental US with each state having one of four colors: orange, pink, green and yellow

منبع: Livescience

اخبار علم و فناوری

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
ads