چت‌جی‌پی‌تی نفهمید، شما ببخشید!

اگر از سیطره هوش مصنوعی می‌ترسید، پس درباره‌اش بیشتر بدانید؛ این مطلب به سفارش شما نوشته شده‌است!
گروه علم و پیشرفت؛ این روزها همه‌جا صحبت از هوش مصنوعی است؛ از کلاس‌های دانشگاه گرفته تا تاکسی‌های اینترنتی. دنیا پرشده از واژه‌هایی مانند «چت‌بات»، «هم‌صحبت مجازی» و «مدل زبانی» که با شتاب وارد زندگی روزمره ما شده‌اند. بسیاری از ما نیز باور داریم این ماشین‌ها می‌فهمند، می‌اندیشند و حتی دلسوزی می‌کنند.اما وقتی این ابزارها پاسخ نادرست می‌دهند یا حرفی برخلاف انتظار شما می‌زنند، ناگهان و بی‌مقدمه این سوالات به ذهن ما خطور می‌کنند: «این ماشین چرا با من یا با ایران دشمنی دارد؟» یا «چرا اینقدر دقیق نیست؟»، «نکند کمر به از بین‌بردن فلان چیز بسته‌است؟». اگر این گزارش را نخوانید، نه‌تنها در دام این سوءتفاهم‌ها می‌افتید، بلکه ممکن است تصمیماتی بگیرید که بر پایه واقعیت نیستند. این گزارش علاوه بر توضیح مفاهیم مهم عرصه هوش مصنوعی، فرصتی است برای آنکه با چشمان بازتری به دنیای هوش مصنوعی نگاه کنید و بدانید هوش در دنیای دیجیتال، چیز دیگری‌ست.

رک و پوست‌کنده، هوش مصنوعی اصلاً چیست؟!

اگر خیلی واضح و ساده بخواهیم بگوییم، «هوش مصنوعی» اصطلاحی است برای توصیف الگوریتم‌هایی که می‌توانند وظایف مشخصی را به‌گونه‌ای انجام دهند که شبیه به عملکرد ذهن انسان به‌نظر برسد. اما توجه کنید: شبیه، نه همانند.مثل ماکت یک خانه که توسط یک مهندس معماری ساخته می‌شود؛ شباهت‌های زیادی هم دارد، اما آیا می‌شود در آن زندگی کرد؟بنابراین وقتی می‌گوییم یک مدل زبانی مثل ChatGPT یا هر سامانه مشابهی «متن تولید می‌کند»، این به معنای آن نیست که «می‌فهمد» یا «قضاوت اخلاقی» می‌کند.حالا الگوریتم یعنی چه؟!ببینید! در ساده‌ترین بیان، الگوریتم یعنی دستورالعمل گام‌به‌گام. مثل دستور پخت قرمه‌سبزی. شما طبق آن، مواد را خرد می‌کنید، می‌پزید، ادویه می‌زنید و... مدل‌های زبانی هم براساس الگوریتم‌هایی مشخص طراحی شده‌اند:دستوراتی که می‌گویند «اگر این کلمه آمد، احتمالاً بعدی چیست؟» این الگوریتم‌ها بدون اینکه چیزی «بدانند» یا «احساس کنند»، فقط با ریاضی و آمار کار می‌کنند.پس این «مدل زبانی» که گفتید چیست؟مدل زبانی (Language Model) ابزاری‌ست مثل چت‌جی‌پی‌تی، دیپ‌سیک، جمنای، کلاود و ... که یاد گرفته چگونه دنباله‌ای از کلمات را کامل کند. حالا یعنی چه؟فرض کنید شما در یک روز گرم به سر قرار با دوستتان می‌رسید و اولین چیزی که می‌گویید این است که: «هوا لامصب خیلی ... پوووف [سرتان را به نشانه اذیت‌شدن در هوای گرم تکان می‌دهید]» و بلافاصله دوستتان جواب می‌دهد: «بله بدجوری گرم است».در حقیقت او این پیش‌بینی را بر اساس تجربه و منطق انجام می‌دهد. کار مدل زبانی هم تکمیل کردن این جملات است منتها مدل زبانی فقط بر اساس احتمالات آماری این کار را می‌کند. نه اینکه بداند واقعاً امروز هوا گرم بوده یا نه.
بگذارید یک مثال دیگر بزنیم. فرض کنید به خانه مادربزرگتان رفته‌اید و ایشان نیز طبق معمول به شما می‌گویند بروید نان خریداری کنید. بعد که وارد نانوایی سنگکی محل می‌شوید و می‌گویید: «دو تا لطفاً.» فروشنده، بدون اینکه از شما بپرسد: «دقیقاً دو تا چی؟» یا علت درخواست شما را جویا شود، دو عدد «نان سنگک» به شما می‌دهد. چرا؟ چون بر اساس تجربه‌اش می‌داند که جمله شما به خرید نان، آن هم سنگگ مربوط است.حال، مدل‌های زبانی بزرگ (مثل GPT، Gemini، DeepSeek و غیره) هم کار مشابهی می‌کنند: آن‌ها فقط احتمال وقوع کلمات را پس از یکدیگر در نظر می‌گیرند. هیچ نیتی در کار نیست، هیچ فهم انسانی از موضوع، هیچ آگاهی، هیچ «دل‌نگرانی» یا «همدلی».به زبان ساده، این مدل‌ها فقط به ما پاسخ می‌دهند چون در مجموعه‌ای بزرگ از متون، پاسخ‌هایی مشابه را دیده‌اند؛ نه چون موضوع را می‌فهمند یا درباره‌اش فکر می‌کنند.

پس بیزحمت معنای «توکن»، «دیتاست» و «جِنِرِیت‌کردن» را هم بگویید!

حتماً! اول از «توکن» شروع می‌کنیم.توکن، کوچک‌ترین واحد قابل‌پردازش در یک مدل زبانی‌ست. می‌تواند یک کلمه، بخشی از یک کلمه یا حتی یک علامت باشد. مثلاً در جمله «سلام دنیا!»، مدل ممکن است «سلام» و «دنیا» و «!» را سه توکن بشناسد.وقتی شما چیزی می‌نویسید، مدل آن را به توکن‌هایی می‌شکند، و سپس براساس توکن‌های قبلی حدس می‌زند که توکن بعدی باید چه باشد.برا «دیتاست» هم باید گفت مدل‌های زبانی با دیدن مقدار زیادی متن، آموزش می‌بینند. این مجموعه‌های عظیم از متن‌ها را «دیتاست» یا «پایگاه داده» می‌نامیم.مثل دانش‌آموزی که هزاران کتاب می‌خواند تا برای کنکور آماده شود و سریع و با یک اشاره تست حل کند، این مدل‌ها هم میلیاردها جمله را می‌خوانند تا بتوانند سریع پاسخ‌هایی شبیه انسان بدهند. ولی تفاوت مهم اینجاست: «مدل زبانی، چیزی را نمی‌فهمد. فقط الگوها را حفظ می‌کند.»«جنریت‌کردن (generate)» هم یعنی تولید کردن. وقتی شما سوالی می‌پرسید، مدل زبانی براساس توکن‌هایی که داده‌اید، توکن‌های بعدی را یکی‌یکی تولید می‌کند. در حقیقت، انگار در هر لحظه دارد «حدس می‌زند» که جمله بعدی چه خواهد بود. و البته که این حدس‌ها مبتنی بر آموزش قبلی‌ست، نه بر «فهم» یا «قضاوت».

حالا چرا این مدل‌ها گاهی حرف نادرست یا توهین‌آمیز می‌زند؟!

توضیحش ساده‌ست. فرض کنید کودکی دارید که تازه‌تازه دارد محیط اطرافش را درک و شناسایی می‌کند و درباره هرچیزی می‌پرسد. «این چیه؟»، «اون چیه؟» و از این قبیل کنجکاوی‌های مختص دوران کودکی.حال در اولین مواجهه‌اش در پارک محل وقتی موجود دم‌درازی را که از سه متری‌اش رد می‌شود می‌بیند می‌پرسد: «اون چیه؟» و شما جواب می‌دهید: «اون گربه‌س». حالا اگر همین کودک در یک باغ‌وحش با دیدن یک روباه بگوید «این هم گربه است»، خطای او در عین اینکه بامزه و خنده‌دار است، اما طبیعی است؛ چون هنوز «فهم حیوان‌شناسی» ندارد.مدل زبانی هم همین‌طور است. وقتی از آن می‌خواهیم مقاله‌ای درباره «تمدن ایرانی» بنویسد، کلمات را کنار هم می‌چیند به این امید که شباهت آماری با نوشته‌های مشابه در فضای وب داشته باشد. اما اگر در متون اولیه‌ای که مدل از آن‌ها یاد گرفته اشتباهی وجود داشته باشد، مدل هم همان را تکرار می‌کند. چون درک و تشخیص و تحلیل ندارد.

گیر دقیقاً همینجاست!

اینجاست که بسیاری دچار اشتباه می‌شوند. وقتی یک مدل، پاسخی ناخوشایند یا اشتباه می‌دهد، برخی تصور می‌کنند: «این مدل با ما مشکلی دارد!»فرض کنید شخصی درباره «کوروش کبیر» از مدل سوالی می‌پرسد و مدل پاسخی ناشایست می‌دهد، یا برعکس، درباره یک چهره منفور ملی، پاسخی بی‌طرف می‌دهد. این نه به معنای «دشمنی» مدل با ایران است، نه به معنای «نظر داشتن» آن نسبت به کسی.مدل، شخص نیست. نه دوست دارد، نه دشمن. فقط براساس داده‌هایی که قبلاً دیده، و احتمال‌هایی که الگوریتم‌اش حساب می‌کند، یک دنباله‌ متنی تولید می‌کند.فرض کنید معلمی در مدرسه‌ای در شهر زابل، هر روز متن کتاب درسی را حفظ و همان را با لحن رسمی برای دانش‌آموزان می‌خواند. او هیچ‌گاه درباره آنچه می‌گوید اندیشه نمی‌کند، مفاهیم را تحلیل نمی‌کند و اگر دانش‌آموزی از او بپرسد «چرا این‌طور است؟» فقط می‌گوید: «کتاب این‌جوری نوشته.»مدل‌های زبانی نیز چنین رفتاری دارند. هرچه خوانده‌اند را تکرار می‌کنند، نه آنکه بدانند چرا آن چیز درست یا نادرست است. آن‌ها نویسنده نیستند، بلکه بازتولیدکننده هستند.

پس گیر کار کجا بود؟!

مشکل دقیقاً اینجاست که ماهیت تفکر انسان با چیزهایی که مدل‌های زبانی تولید می‌کنند از زمین تا آسمان متفاوت است. چون انسان از اساس با ماشین متفاوت است.تفکر انسان با تجربه‌ی زیسته، احساس، هدف، تردید، جست‌وجو و تصمیم شکل می‌گیرد. وقتی انسانی درباره «امید» سخن می‌گوید، بار تجربی و عاطفی دارد. اما مدل زبانی فقط می‌داند در متن‌هایی که درباره «امید» نوشته شده‌اند، چه واژگانی بیشترین تکرار را دارند.مثلاً وقتی از مدل بپرسید «آیا ادامه تحصیل برای من مفید است؟»، پاسخ آن ممکن است دقیق و پرمحتوا به نظر برسد. اما در حقیقت، آن فقط جمع‌بندی آماری ده‌ها هزار جمله‌ی شبیه به این در متون دیگر است؛ نه تصمیمی انسانی، نه راهنمایی اخلاقی، نه شناختی از زندگی شما.پس اگر اشتباه هم می‌کند، دلیل آن در ساختار، الگوریتم‌ها یا پایگاه داده آن است. که توسعه‌دهندگان باید دائماً مراقب باشند، داده‌ها را پاک‌سازی کنند، الگوریتم‌ها را تنظیم کنند و بازخورد بگیرند.اما حتی در بهترین شرایط نیز، هیچ مدلی نمی‌تواند «بی‌خطا» باشد، چون برخلاف انسان، قدرت داوری اخلاقی ندارد.

راهکار چیست؟!

اولاً هوش مصنوعی سازوکار هیچ‌یک از ابزارهای تولیدکننده متن، تصویر و ویدئو را با تفکر انسانی یکی ندانید. حتی اگر مقایسه کردید!ثانیاً تعامل سازنده با هوش مصنوعی و مدل‌های زبانی در ابتدایی‌ترین و مهمترین مرحله‌ش شناخت سازوکار و فهم چگونگی استفاده درست از آن است.بدین منظور و برای اینکه کمتر با خطاهای این مدل‌ها روبه‌رو شوید، مطالب زیر را مطالعه فرمایید:«با این ۵ راهکار جلوی دروغ‌گفتن چت‌جی‌پی‌تی را بگیرید»«۱۰ تکنیک پرامپت‌نویسی که حرفه‌ای‌ها به کسی نمی‌گویند!»

حرف آخر

مدل‌های زبانی ابزارهایی قدرتمندند که می‌توانند در بسیاری از امور به ما کمک کنند. اما اگر بخواهیم با ذهنیت انسانی با آن‌ها برخورد کنیم، دچار سوءبرداشت خواهیم شد.هوش مصنوعی نه «نظر» دارد، نه «احساس» و نه اینکه «مسئولیت» کاری را به عهده می‌گیرد. فقط براساس الگوهای آماری، پاسخ‌هایی تولید می‌کند. پس اگر پاسخ نادرست، توهین‌آمیز یا ناخوشایندی دیدید، بدانید این تقصیر یک ذهن خصمانه نیست، بلکه محدودیت‌های ساختاری یک سامانه ماشینی‌ست.وقتی دنبال گرفتن یک پاسخ از هوش مصنوعی هستیم، اولا پرامپت دقیق بنویسیم؛ ثانیا حالت «جستجو» را فعال کنیم تا در منابع معتبر بگردد و پاسخ را با منبع به ما تحویل دهد. و البته همیشه چک کردن منابع یادمان نرود.
04:58 - 7 خرداد 1404

6 بازنشر15 واکنش
127٫8k بازدید


7 پاسخ

@user17091012600845821707 خرداد 1404
در پاسخ به
عالى بود👌👏احسنتخسته نباشيد و خداقوت

@user17091000501977229627 خرداد 1404
در پاسخ به
هوش‌مصنوعی اندیشه نداره و با کسی دشمنی نداره ولی توسعه دهنده‌هاش تصمیم می‌گیرند رو چه داده‌ای آموزش ببینه. هم چنین با یه سری روش‌های وزن‌دهی به الگوریتم‌ها، پرسش و پاسخ‌ها رو جهت‌دار می‌کنند. به طور کامل و علمی این قابلیت رو داره که پاسخ‌هایی در جهت منافع گروهی خاص تولید کنه

@user17091000501977229627 خرداد 1404
در پاسخ به
یه ویژگی هست، با نام پرامپت نویسی. شما اول به مدل می‌گی بر چه اساسی جواب تولید کنه. مثلا سوال روانشناسی رو بر اساس نظر کارشناس x جواب بده. حالا در سطح بالاتر، توسعه‌دهنده به مدل می‌گه: محتوای ضد یهود رو فیلتر کن. همه‌ی نتایجی که مدل، تولید می‌کنه با این نگاه سازگار می‌مونه. هوش مصنوعی بی طرف نیست.

@user17091000501977229627 خرداد 1404
در پاسخ به
هوش‌مصنوعی ابزار جدید برای کنترل و جهت‌دهی ذهن‌هاست. با این حرف‌ها فریب نخورید.

@Mk_Daneshi7 خرداد 1404
در پاسخ به
بسیار عالی بود و آگاهی بخش ، مخصوصاً برای این روزها که نظراتی در خصوص جانبداری هوش مصنوعی در برخی موضوعات مطرح می شود .

@user1709797622517 خرداد 1404
در پاسخ به
باسمه تعالی / با سلام و احترام بر جناب آقای محمد امین کفاشیان عزیز و خوانندگان گرامی . ضمن تشکر از جنابعالی اجازه بفرمائید برای تفریح دوستان البته عرض کنم که: بادنجان با کدو می گفت روزی __ مواظب باش سر سفره نسوزی __ جوابش داد نمی بینی مگر من__ نه دست دارم نه پا جانم ،در این تن __ چگونه می توا…نمایش بیشتر