چتجیپیتی نفهمید، شما ببخشید!
اگر از سیطره هوش مصنوعی میترسید، پس دربارهاش بیشتر بدانید؛ این مطلب به سفارش شما نوشته شدهاست!
گروه علم و پیشرفت؛ این روزها همهجا صحبت از هوش مصنوعی است؛ از کلاسهای دانشگاه گرفته تا تاکسیهای اینترنتی. دنیا پرشده از واژههایی مانند «چتبات»، «همصحبت مجازی» و «مدل زبانی» که با شتاب وارد زندگی روزمره ما شدهاند. بسیاری از ما نیز باور داریم این ماشینها میفهمند، میاندیشند و حتی دلسوزی میکنند.اما وقتی این ابزارها پاسخ نادرست میدهند یا حرفی برخلاف انتظار شما میزنند، ناگهان و بیمقدمه این سوالات به ذهن ما خطور میکنند: «این ماشین چرا با من یا با ایران دشمنی دارد؟» یا «چرا اینقدر دقیق نیست؟»، «نکند کمر به از بینبردن فلان چیز بستهاست؟». اگر این گزارش را نخوانید، نهتنها در دام این سوءتفاهمها میافتید، بلکه ممکن است تصمیماتی بگیرید که بر پایه واقعیت نیستند. این گزارش علاوه بر توضیح مفاهیم مهم عرصه هوش مصنوعی، فرصتی است برای آنکه با چشمان بازتری به دنیای هوش مصنوعی نگاه کنید و بدانید هوش در دنیای دیجیتال، چیز دیگریست.
رک و پوستکنده، هوش مصنوعی اصلاً چیست؟!
اگر خیلی واضح و ساده بخواهیم بگوییم، «هوش مصنوعی» اصطلاحی است برای توصیف الگوریتمهایی که میتوانند وظایف مشخصی را بهگونهای انجام دهند که شبیه به عملکرد ذهن انسان بهنظر برسد. اما توجه کنید: شبیه، نه همانند.مثل ماکت یک خانه که توسط یک مهندس معماری ساخته میشود؛ شباهتهای زیادی هم دارد، اما آیا میشود در آن زندگی کرد؟بنابراین وقتی میگوییم یک مدل زبانی مثل ChatGPT یا هر سامانه مشابهی «متن تولید میکند»، این به معنای آن نیست که «میفهمد» یا «قضاوت اخلاقی» میکند.حالا الگوریتم یعنی چه؟!ببینید! در سادهترین بیان، الگوریتم یعنی دستورالعمل گامبهگام. مثل دستور پخت قرمهسبزی. شما طبق آن، مواد را خرد میکنید، میپزید، ادویه میزنید و... مدلهای زبانی هم براساس الگوریتمهایی مشخص طراحی شدهاند:دستوراتی که میگویند «اگر این کلمه آمد، احتمالاً بعدی چیست؟» این الگوریتمها بدون اینکه چیزی «بدانند» یا «احساس کنند»، فقط با ریاضی و آمار کار میکنند.پس این «مدل زبانی» که گفتید چیست؟مدل زبانی (Language Model) ابزاریست مثل چتجیپیتی، دیپسیک، جمنای، کلاود و ... که یاد گرفته چگونه دنبالهای از کلمات را کامل کند. حالا یعنی چه؟فرض کنید شما در یک روز گرم به سر قرار با دوستتان میرسید و اولین چیزی که میگویید این است که: «هوا لامصب خیلی ... پوووف [سرتان را به نشانه اذیتشدن در هوای گرم تکان میدهید]» و بلافاصله دوستتان جواب میدهد: «بله بدجوری گرم است».در حقیقت او این پیشبینی را بر اساس تجربه و منطق انجام میدهد. کار مدل زبانی هم تکمیل کردن این جملات است منتها مدل زبانی فقط بر اساس احتمالات آماری این کار را میکند. نه اینکه بداند واقعاً امروز هوا گرم بوده یا نه.
بگذارید یک مثال دیگر بزنیم. فرض کنید به خانه مادربزرگتان رفتهاید و ایشان نیز طبق معمول به شما میگویند بروید نان خریداری کنید. بعد که وارد نانوایی سنگکی محل میشوید و میگویید: «دو تا لطفاً.» فروشنده، بدون اینکه از شما بپرسد: «دقیقاً دو تا چی؟» یا علت درخواست شما را جویا شود، دو عدد «نان سنگک» به شما میدهد. چرا؟ چون بر اساس تجربهاش میداند که جمله شما به خرید نان، آن هم سنگگ مربوط است.حال، مدلهای زبانی بزرگ (مثل GPT، Gemini، DeepSeek و غیره) هم کار مشابهی میکنند: آنها فقط احتمال وقوع کلمات را پس از یکدیگر در نظر میگیرند. هیچ نیتی در کار نیست، هیچ فهم انسانی از موضوع، هیچ آگاهی، هیچ «دلنگرانی» یا «همدلی».به زبان ساده، این مدلها فقط به ما پاسخ میدهند چون در مجموعهای بزرگ از متون، پاسخهایی مشابه را دیدهاند؛ نه چون موضوع را میفهمند یا دربارهاش فکر میکنند.
پس بیزحمت معنای «توکن»، «دیتاست» و «جِنِرِیتکردن» را هم بگویید!
حتماً! اول از «توکن» شروع میکنیم.توکن، کوچکترین واحد قابلپردازش در یک مدل زبانیست. میتواند یک کلمه، بخشی از یک کلمه یا حتی یک علامت باشد. مثلاً در جمله «سلام دنیا!»، مدل ممکن است «سلام» و «دنیا» و «!» را سه توکن بشناسد.وقتی شما چیزی مینویسید، مدل آن را به توکنهایی میشکند، و سپس براساس توکنهای قبلی حدس میزند که توکن بعدی باید چه باشد.برا «دیتاست» هم باید گفت مدلهای زبانی با دیدن مقدار زیادی متن، آموزش میبینند. این مجموعههای عظیم از متنها را «دیتاست» یا «پایگاه داده» مینامیم.مثل دانشآموزی که هزاران کتاب میخواند تا برای کنکور آماده شود و سریع و با یک اشاره تست حل کند، این مدلها هم میلیاردها جمله را میخوانند تا بتوانند سریع پاسخهایی شبیه انسان بدهند. ولی تفاوت مهم اینجاست: «مدل زبانی، چیزی را نمیفهمد. فقط الگوها را حفظ میکند.»«جنریتکردن (generate)» هم یعنی تولید کردن. وقتی شما سوالی میپرسید، مدل زبانی براساس توکنهایی که دادهاید، توکنهای بعدی را یکییکی تولید میکند. در حقیقت، انگار در هر لحظه دارد «حدس میزند» که جمله بعدی چه خواهد بود. و البته که این حدسها مبتنی بر آموزش قبلیست، نه بر «فهم» یا «قضاوت».
حالا چرا این مدلها گاهی حرف نادرست یا توهینآمیز میزند؟!
توضیحش سادهست. فرض کنید کودکی دارید که تازهتازه دارد محیط اطرافش را درک و شناسایی میکند و درباره هرچیزی میپرسد. «این چیه؟»، «اون چیه؟» و از این قبیل کنجکاویهای مختص دوران کودکی.حال در اولین مواجههاش در پارک محل وقتی موجود دمدرازی را که از سه متریاش رد میشود میبیند میپرسد: «اون چیه؟» و شما جواب میدهید: «اون گربهس». حالا اگر همین کودک در یک باغوحش با دیدن یک روباه بگوید «این هم گربه است»، خطای او در عین اینکه بامزه و خندهدار است، اما طبیعی است؛ چون هنوز «فهم حیوانشناسی» ندارد.مدل زبانی هم همینطور است. وقتی از آن میخواهیم مقالهای درباره «تمدن ایرانی» بنویسد، کلمات را کنار هم میچیند به این امید که شباهت آماری با نوشتههای مشابه در فضای وب داشته باشد. اما اگر در متون اولیهای که مدل از آنها یاد گرفته اشتباهی وجود داشته باشد، مدل هم همان را تکرار میکند. چون درک و تشخیص و تحلیل ندارد.
گیر دقیقاً همینجاست!
اینجاست که بسیاری دچار اشتباه میشوند. وقتی یک مدل، پاسخی ناخوشایند یا اشتباه میدهد، برخی تصور میکنند: «این مدل با ما مشکلی دارد!»فرض کنید شخصی درباره «کوروش کبیر» از مدل سوالی میپرسد و مدل پاسخی ناشایست میدهد، یا برعکس، درباره یک چهره منفور ملی، پاسخی بیطرف میدهد. این نه به معنای «دشمنی» مدل با ایران است، نه به معنای «نظر داشتن» آن نسبت به کسی.مدل، شخص نیست. نه دوست دارد، نه دشمن. فقط براساس دادههایی که قبلاً دیده، و احتمالهایی که الگوریتماش حساب میکند، یک دنباله متنی تولید میکند.فرض کنید معلمی در مدرسهای در شهر زابل، هر روز متن کتاب درسی را حفظ و همان را با لحن رسمی برای دانشآموزان میخواند. او هیچگاه درباره آنچه میگوید اندیشه نمیکند، مفاهیم را تحلیل نمیکند و اگر دانشآموزی از او بپرسد «چرا اینطور است؟» فقط میگوید: «کتاب اینجوری نوشته.»مدلهای زبانی نیز چنین رفتاری دارند. هرچه خواندهاند را تکرار میکنند، نه آنکه بدانند چرا آن چیز درست یا نادرست است. آنها نویسنده نیستند، بلکه بازتولیدکننده هستند.
پس گیر کار کجا بود؟!
مشکل دقیقاً اینجاست که ماهیت تفکر انسان با چیزهایی که مدلهای زبانی تولید میکنند از زمین تا آسمان متفاوت است. چون انسان از اساس با ماشین متفاوت است.تفکر انسان با تجربهی زیسته، احساس، هدف، تردید، جستوجو و تصمیم شکل میگیرد. وقتی انسانی درباره «امید» سخن میگوید، بار تجربی و عاطفی دارد. اما مدل زبانی فقط میداند در متنهایی که درباره «امید» نوشته شدهاند، چه واژگانی بیشترین تکرار را دارند.مثلاً وقتی از مدل بپرسید «آیا ادامه تحصیل برای من مفید است؟»، پاسخ آن ممکن است دقیق و پرمحتوا به نظر برسد. اما در حقیقت، آن فقط جمعبندی آماری دهها هزار جملهی شبیه به این در متون دیگر است؛ نه تصمیمی انسانی، نه راهنمایی اخلاقی، نه شناختی از زندگی شما.پس اگر اشتباه هم میکند، دلیل آن در ساختار، الگوریتمها یا پایگاه داده آن است. که توسعهدهندگان باید دائماً مراقب باشند، دادهها را پاکسازی کنند، الگوریتمها را تنظیم کنند و بازخورد بگیرند.اما حتی در بهترین شرایط نیز، هیچ مدلی نمیتواند «بیخطا» باشد، چون برخلاف انسان، قدرت داوری اخلاقی ندارد.
حرف آخر
مدلهای زبانی ابزارهایی قدرتمندند که میتوانند در بسیاری از امور به ما کمک کنند. اما اگر بخواهیم با ذهنیت انسانی با آنها برخورد کنیم، دچار سوءبرداشت خواهیم شد.هوش مصنوعی نه «نظر» دارد، نه «احساس» و نه اینکه «مسئولیت» کاری را به عهده میگیرد. فقط براساس الگوهای آماری، پاسخهایی تولید میکند. پس اگر پاسخ نادرست، توهینآمیز یا ناخوشایندی دیدید، بدانید این تقصیر یک ذهن خصمانه نیست، بلکه محدودیتهای ساختاری یک سامانه ماشینیست.وقتی دنبال گرفتن یک پاسخ از هوش مصنوعی هستیم، اولا پرامپت دقیق بنویسیم؛ ثانیا حالت «جستجو» را فعال کنیم تا در منابع معتبر بگردد و پاسخ را با منبع به ما تحویل دهد. و البته همیشه چک کردن منابع یادمان نرود.
04:58 - 7 خرداد 1404