
اختر القسم الذي تحتاجه الآن
الفكرة التي تمنع التسرع
تعتقد أن أدوات AI معقدة وتحتاج خبرة؟ Langflow يثبت العكس: واجهة بصرية تبني وكيل AI في دقائق، حتى لو لم تكتب سطر كود.
قبل أن تطبق، اعرف أين تقف بالضبط
لا تعتمد على الانطباع؛ اختر مؤشراً تراجعه
إذا كنت تبحث عن طريقة سهلة لبناء ونشر وكلاء الذكاء الاصطناعي دون تعقيد البرمجة، فإن Langflow هو الحل. هذا الدليل المرجعي يشرح لك كيفية تركيب Langflow عبر Docker، مع خطوات عملية وأمثلة واقعية. سواء كنت مطوراً أو صاحب مشروع صغير، ستتمكن من تشغيل أول وكيل AI لك في دقائق.
لن ننسخ README بل سنقدم لك نظاماً متكاملاً: تشخيص احتياجك، خطوات التركيب، حلول الأخطاء، وقرار الاستخدام. احفظ هذه الصفحة كمرجع دائم.
Langflow هو إطار عمل مفتوح المصدر لبناء ونشر وكلاء الذكاء الاصطناعي وسير العمل باستخدام واجهة سحب وإفلات بصرية. بدلاً من كتابة كود معقد، يمكنك توصيل المكونات مثل LLMs، قواعد البيانات، APIs، وأدوات أخرى بسهولة. يدعم Langflow نماذج متعددة مثل OpenAI وHugging Face، ويتكامل مع أدوات مثل LangChain وDify.
هذا المشروع مثالي لـ: المطورين الذين يريدون بناء نماذج أولية سريعة، أصحاب المشاريع الصغيرة الذين يحتاجون أتمتة مهامهم، وصناع المحتوى التقني الذين يبحثون عن أدوات سهلة لشرح AI. إذا كنت مبتدئاً، ستجد أن Langflow يخفض حاجز الدخول بشكل كبير.
قبل البدء، تأكد من توفر: نظام تشغيل (Windows, macOS, Linux)، Docker مثبت ومحدث، وأساسيات استخدام سطر الأوامر. لا تحتاج إلى معرفة برمجية عميقة، لكن فهم أساسيات Docker سيساعد.
الطريقة الموصى بها هي استخدام Docker لسهولة التشغيل وتجنب مشاكل التبعيات. اتبع الخطوات:
docker --version. إذا لم يظهر إصدار، قم بتثبيت Docker من الموقع الرسمي.docker run -p 7860:7860 langflowai/langflow:latesthttp://localhost:7860.ملاحظة: إذا كنت تستخدم نظام ARM (مثل M1/M2 Mac)، قد تحتاج إلى إضافة --platform linux/amd64 قبل اسم الصورة.
لا يتطلب Langflow ملف .env للتشغيل الأساسي، لكن إذا أردت استخدام مفاتيح API (مثل OpenAI)، يمكنك إنشاء ملف .env في مجلد العمل وإضافة:OPENAI_API_KEY=your_key_here
ثم تشغيل الحاوية مع متغير البيئة: docker run -p 7860:7860 -e OPENAI_API_KEY=your_key_here langflowai/langflow:latest
بعد فتح الواجهة، يمكنك إنشاء مشروع جديد. اسحب المكونات من القائمة اليسرى (مثل LLM، Prompt، Output) وقم بتوصيلها. جرب مثالاً بسيطاً: استخدم مكون OpenAI LLM مع مكون Prompt لإنشاء رد تلقائي. اضغط على زر التشغيل لرؤية النتيجة.
مثال: بناء وكيل دعم عملاء آلي. استخدم مكونات: Chat Input، OpenAI LLM، Prompt، Chat Output. قم بتوصيلها وضبط الـ Prompt ليكون ردوداً تلقائية. يمكنك أيضاً إضافة قاعدة بيانات للأسئلة الشائعة عبر مكون Vector Store.
نعم، خاصة إذا كنت تبحث عن أداة سريعة لبناء نماذج AI دون تعقيد. لكن إذا كنت تحتاج تحكماً كاملاً في الكود، قد تفضل LangChain مباشرة. Langflow مناسب للنماذج الأولية والتجارب السريعة.
نعم، يمكن تثبيته عبر pip: pip install langflow ثم langflow run. لكن Docker يضمن بيئة نظيفة.
الواجهة بالإنكليزية، لكن يمكنك استخدام نماذج عربية عبر Hugging Face.
أوقف الحاوية، ثم اسحب الصورة الجديدة: docker pull langflowai/langflow:latest، ثم أعد التشغيل.
خطوات عملية مرتبة من التشخيص إلى النتيجة
لماذا؟ Docker يضمن بيئة نظيفة ومتسقة لتشغيل Langflow دون تعارض التبعيات.
كيف؟ افتح الطرفية واكتب `docker --version`. إذا لم يظهر إصدار، قم بتنزيل Docker من الموقع الرسمي وتثبيته.
الناتج: تأكيد تثبيت Docker مع إظهار الإصدار.
لماذا؟ سحب الصورة الرسمية وتشغيل الحاوية يوفر أحدث إصدار بسهولة.
كيف؟ في الطرفية، اكتب: `docker run -p 7860:7860 langflowai/langflow:latest`. إذا كنت على ARM، أضف `--platform linux/amd64`.
الناتج: ظهور رسالة تفيد بأن الخادم يعمل على http://localhost:7860.
لماذا؟ الواجهة البصرية تسمح ببناء سير العمل بالسحب والإفلات.
كيف؟ افتح المتصفح على http://localhost:7860. ستظهر واجهة Langflow الرئيسية.
الناتج: رؤية واجهة السحب والإفلات مع قائمة المكونات.
لماذا؟ تجربة عملية سريعة تثبت فهمك للواجهة.
كيف؟ اسحب مكون 'OpenAI LLM' ومكون 'Prompt' من القائمة اليسرى. قم بتوصيلهما. اضبط الـ Prompt ليكون 'أجب على السؤال التالي: {input}'. أضف مكون 'Chat Output'. اضغط زر التشغيل.
الناتج: ظهور رد تلقائي من النموذج في واجهة الدردشة.
لماذا؟ استخدام مفاتيح API الخاصة بك يتيح الوصول لنماذج متعددة.
كيف؟ أنشئ ملف .env في مجلد العمل وأضف `OPENAI_API_KEY=your_key`. ثم شغل الحاوية مع `-e OPENAI_API_KEY=your_key`.
الناتج: تمكين استخدام النماذج التي تتطلب مصادقة.
حوّل القراءة إلى تنفيذ سريع
مكونات: Chat Input -> OpenAI LLM (مع Prompt: 'أنت وكيل دعم عملاء. أجب بلطف على استفسار المستخدم.') -> Chat Output. قم بتوصيلها وتشغيلها.
مكونات: Chat Input -> Vector Store (مثل FAISS) -> OpenAI LLM -> Chat Output. قم بتحميل مستندات الأسئلة الشائعة في Vector Store.
اعرف أين يتعثر الناس وكيف تتجنب ذلك
ماذا تفعل حسب حالتك؟
إذا: إذا كنت تحتاج إلى بناء نموذج أولي سريع
إذن: استخدم Langflow مع Docker.
إذا: إذا كنت تحتاج تحكماً كاملاً في الكود
إذن: استخدم LangChain مباشرة.
إذا: إذا كنت تفضل واجهة بصرية مع دعم مجتمعي
إذن: جرب Dify أو Flowise كبدائل.
إذا: إذا كان جهازك ARM (Mac M1/M2)
إذن: أضف `--platform linux/amd64` عند تشغيل Docker.
جدول صغير يمنع التسويف
نقاط مختصرة ترجع لها لاحقاً
1. Langflow مفتوح المصدر تحت رخصة Apache 2.0.
2. يدعم نماذج OpenAI، Hugging Face، Cohere، وغيرها.
3. يمكن تشغيله محلياً عبر pip أو Docker.
4. الواجهة بالإنكليزية لكن يمكن استخدام نماذج عربية.
5. المجتمع نشط على Discord وGitHub.
6. يتكامل مع LangChain وDify.
7. لا يتطلب ملف .env للتشغيل الأساسي.
8. يمكن تغيير المنفذ بسهولة عبر معلمة -p.
إجابات مباشرة على ما يبحث عنه الزائر
تعريفات مختصرة تمنع الالتباس
منصة لتشغيل التطبيقات في حاويات معزولة، تضمن بيئة متسقة.
نموذج لغوي كبير، مثل GPT-4، يستخدم لتوليد النصوص.
قاعدة بيانات تخزن المتجهات (تمثيلات رقمية للنصوص) للبحث الدلالي.
النص الذي يُعطى للنموذج لتوجيه استجابته.
استخدمها كمسارات متابعة داخل نفس الموضوع
تحول القارئ: من معتقد أن أدوات AI معقدة إلى مستخدم قادر على بناء وكيل AI في دقائق
القيمة الحقيقية تظهر عند العودة والتطبيق
لا تتعامل معه كمقال يُقرأ مرة واحدة. استخدمه كلوحة تشغيل: ارجع للتشخيص عند ظهور المشكلة، وللقوالب عند التطبيق، ولمؤشرات القياس عند المراجعة.
الآن لديك دليل مرجعي كامل لتركيب Langflow واستخدامه. احفظ هذه الصفحة، وابدأ ببناء أول وكيل AI لك. تذكر أن الممارسة هي المفتاح، ولا تتردد في الرجوع إلى هذا الدليل عند الحاجة.
حتى يبقى المرجع صالحاً مع الوقت

{"@context":"https://schema.org","@type":"Article","headline":"دليل عملي: شرح مش...
{"@context":"https://schema.org","@type":"Article","headline":"نظام تشغيل مشاريع...

{"@context":"https://schema.org","@type":"Article","headline":"دليل تثبيت OpenCl...