
LLMs لا تفهم المعنى، بل تحسب احتمالات الكلمة التالية. 'الفهم' وهم إسقاطي من المستخدم. التجربة تكشف النظام الخفي: Input→Probability Matrix→Token.
الذكاء الاصطناعي يفهم ما يقوله ويفكر مثلي.
LLMs لا تفهم — تحسب احتمالات الكلمة التالية فقط. 'الفهم' وهم إسقاطي من المستخدم.
تحدث مع ChatGPT، تشعر أنه يفهمك بل ويتعاطف. لكن الحقيقة: هو نظام إحصائي ضخم يحسب الكلمة الأكثر احتمالاً. في هذه التجربة، ستبني بنفسك نموذجاً مبسطاً لتتنبأ بالكلمة التالية، وتكتشف أين يكمن 'الفهم' الوهمي.
سنفكك النظام: Input (سياقك) → Process (مصفوفة احتمالات) → Output (كلمة). ثم نكشف الطبقات المخفية: Attention Mechanism وContext Window وRLHF. وأخيراً، ستتدخل لتغير النظام بأقل جهد.
تكتب للAI: 'أشعر بالحزن اليوم.' يرد: 'أتفهم شعورك. هل تريد التحدث؟' تشعر أنه يفهمك. لكن هل يفهم حقاً؟ أم أنه فقط ينتج رداً محتملاً؟
في هذه التجربة، سنكشف النظام الخفي وراء هذا 'الفهم' الوهمي.
في المربع أدناه، أكمل الجملة: 'السماء زرقاء لأن...' اضغط 'تشغيل' لترى كيف يتنبأ النموذج البسيط بالكلمة التالية بناءً على الاحتمالات.
// نموذج مبسط للتنبؤ بالكلمة التالية
const context = ['السماء', 'زرقاء', 'لأن'];
const probs = {
'السماء': {'زرقاء': 0.8, 'ممطرة': 0.2},
'زرقاء': {'لأن': 0.9, 'وجميلة': 0.1},
'لأن': {'الضوء': 0.7, 'الماء': 0.3}
};
function predictNext(context) {
const lastWord = context[context.length - 1];
const candidates = probs[lastWord];
if (!candidates) return '؟';
// اختر أعلى احتمال
const next = Object.keys(candidates).reduce((a, b) => candidates[a] > candidates[b] ? a : b);
return next;
}
console.log(predictNext(context)); // 'الضوء'تخيل آلة توزع حلوى حسب لون الزر الذي ضغطته. الزر الأزرق يعطي حلوى زرقاء بنسبة 80%، الزر الأحمر يعطي حمراء بنسبة 90%. الآلة لا 'تفهم' أنك تريد الحلوى الحمراء، فقط تطبق الاحتمالات. LLM مثل هذه الآلة: لا يفهم معنى كلماتك، فقط يطبق الاحتمالات المستفادة من التدريب.
النموذج البسيط لم 'يفهم' أن السماء زرقاء بسبب تشتت رايلي. فقط تعلم أن بعد 'لأن' غالباً ما تأتي 'الضوء'. LLM الحقيقي يفعل نفس الشيء على نطاق هائل مع مليارات المعاملات.
الطبقات المخفية:
عدّل السياق في الكود أعلن لترى كيف يتغير التنبؤ. مثلاً: غير 'لأن' إلى 'وجميلة' ثم اضغط تشغيل. ماذا تتوقع؟
الآن فكر: هل النموذج 'يعرف' أن السماء زرقاء؟ أم فقط يحسب احتمالات؟
❓ سؤال: إذا كان النموذج لا يفهم، فلماذا تبدو ردوده ذكية؟
أي من التالي يصف LLM بدقة؟
الآن ترى: 'الفهم' وهم. LLM لا يفهم، لكنه ينتج ردوداً تبدو ذكية. التحدي الحقيقي: كيف تصمم Prompt كنظام توجيه احتمالات لتحصل على أفضل مخرجات؟
التدخل الأسهل: غيّر سياقك (Input) لتحصل على مخرجات أفضل. أنت مصمم النظام.
📚 زارو-مدوّنة المعرفة — نبني مهندسي تفكير، لا قرّاء محتوى
KnowledgeNuggets Autonomous — System Architect Edition v5.0.2

{"@context":"https://schema.org","@type":"Article","headline":"دليل عملي: شرح مش...

{"@context":"https://schema.org","@type":"Article","headline":"نظام تشغيل Langfl...

{"@context":"https://schema.org","@type":"Article","headline":"نظام تشغيل وكيل ا...