كيفية تشغيل ماجستير إدارة الأعمال المحلي الخاص بك على Raspberry Pi


منذ إصدار OpenAI المذهل لـ ChatGPT 3 في أواخر عام 2022، استحوذت نماذج اللغات الكبيرة (LLMs) على خيال العالم من خلال إظهار قدرات رائعة، بدءًا من كتابة المقالات وحتى الإجابة على الأسئلة المعقدة.

ومع ذلك، لا تحتاج إلى الاعتماد على شركات مثل OpenAI أو Google أو Anthropic ومشاركة البيانات الشخصية المحتملة للاستفادة من قوة LLMs. باستخدام Raspberry Pi ذو الأسعار المعقولة، يمكنك إعداد مساعدك المحلي القائم على الدردشة المعتمد على الذكاء الاصطناعي. يوضح لك هذا الدليل كيف.

ماذا ستحتاج

لإعداد LLM الخاص بك على Raspberry Pi، هناك بعض المكونات الأساسية التي ستحتاج إليها:

  • فطيرة التوت: نظرًا لأن LLMs تستهلك الكثير من الموارد، فمن الأفضل استخدام أقوى Raspberry Pi المتاح للحصول على الأداء الأمثل. في وقت كتابة هذا المقال، يعد Raspberry Pi 5 المزود بذاكرة وصول عشوائي (RAM) سعة 8 جيجابايت هو الخيار الموصى به.
  • بطاقة microSD مع نظام التشغيل Raspberry Pi: للحصول على أقصى قدر من الأداء، فكر في استخدام الإصدار البسيط من Raspberry Pi OS، نظرًا لأن واجهة المستخدم الرسومية ليست ضرورية لتشغيل LLM (يمكنك التفاعل معها عن بُعد باستخدام محطة طرفية وSSH). ومع ذلك، إذا كنت تستخدم Raspberry Pi لمهام أخرى أو كجهاز الكمبيوتر الأساسي، فيمكنك استخدام الإصدار العادي من Raspberry Pi OS. يمكن أن يساعدك دليلنا حول كيفية إعداد Raspberry Pi OS على Raspberry Pi على البدء.
  • مكونات إضافية: بصرف النظر عن Raspberry Pi وبطاقة microSD السريعة، ستحتاج إلى مصدر طاقة موثوق (يوصى باستخدام المصدر الرسمي)، ولوحة مفاتيح، وماوس، وشاشة للإعداد الأولي (اختياري إذا كنت تستخدم SSH)، و اتصال بالإنترنت لتنزيل البرامج والنماذج الضرورية.

مع وجود هذه المكونات في متناول اليد، أنت جاهز لبدء إعداد LLM الخاص بك على Raspberry Pi.

قم بتثبيت أولاما

الخطوة الأولى في إعداد LLM الخاص بك على Raspberry Pi هي تثبيت البرنامج الضروري. حاليًا، الخياران الأكثر شيوعًا لتشغيل LLMs محليًا هما llama.cpp وOllama.

  • llama.cpp هو تطبيق خفيف الوزن لـ C++ لـ Meta’s LLaMA (محول نموذج اللغة الكبير) والذي يمكن تشغيله على مجموعة واسعة من الأجهزة، بما في ذلك Raspberry Pi. تم تطويره بواسطة جورجي جيرجانوف وتم إصداره في مارس 2023.
  • من ناحية أخرى، تم إنشاء Ollama حول llama.cpp، مما يوفر العديد من الميزات سهلة الاستخدام. فهو يتعامل تلقائيًا مع نماذج طلبات الدردشة بالتنسيق الذي يتوقعه كل نموذج، ويقوم بتحميل النماذج وإلغاء تحميلها عند الطلب بناءً على طلب العميل. يدير Ollama أيضًا تنزيل النماذج وتخزينها مؤقتًا، بما في ذلك النماذج الكمية، بحيث يمكنك طلبها بالاسم.

في هذا الدليل، سنستخدم Ollama نظرًا لسهولة استخدامه وميزاته الإضافية.

لتثبيت Ollama على Raspberry Pi، افتح نافذة طرفية على Raspberry Pi. إذا كنت تستخدم SSH، فاتصل بـ Raspberry Pi باستخدام عميل SSH المفضل لديك. ثم أدخل الأمر التالي في المحطة:

curl -fsSL https://ollama.com/install.sh | sh

يقوم هذا الأمر بتنزيل وتنفيذ البرنامج النصي للتثبيت من موقع Ollama الرسمي. سيقوم البرنامج النصي تلقائيًا بتثبيت التبعيات المطلوبة وإعداد Ollama على جهاز Raspberry Pi الخاص بك.

تم الانتهاء من تثبيت Olma

قم بتنزيل وتشغيل LLM

بعد تثبيت Ollama، حان الوقت لتنزيل نموذج لغة كبير. إذا كنت تستخدم Raspberry Pi مع 8 جيجابايت من ذاكرة الوصول العشوائي، فيمكنك تشغيل النماذج بما يصل إلى 7 مليار معلمة (الإعدادات التي يستخدمها الذكاء الاصطناعي لتحديد مخرجاته).

تتضمن بعض الاختيارات الشائعة Mistral (7B)، أو Gemma (7B أو 2B)، أو Llama 2 غير الخاضعة للرقابة (7B)، أو Phi-3 من Microsoft (3.8B). يمكنك عرض جميع النماذج المدعومة على صفحة مكتبة Ollama.

في هذا الدليل، سنستخدم نموذج Microsoft Phi-3. على الرغم من صغر حجمه وكفاءته، يعتبر Phi-3 نموذجًا قادرًا للغاية. لتثبيته، ما عليك سوى تشغيل الأمر التالي في الوحدة الطرفية:

سيقوم هذا الأمر بتنزيل نموذج Phi-3 وتثبيته، وسيبدأ أيضًا جلسة محادثة تفاعلية مع النموذج تلقائيًا.

تحميل اولاما فاي3

استخدام LLM محلي على Raspberry Pi الخاص بك

بعد تنزيل نموذج Phi-3 وتثبيته، سترى مطالبة في الوحدة الطرفية تبدو كما يلي:

>>> Send a message (/? for help)

وهذا يعني أن LLM قيد التشغيل وينتظر مدخلاتك. لبدء التفاعل مع النموذج، اكتب رسالتك واضغط على Enter.

علماء يجيبون على سؤال

فيما يلي بعض النصائح لصياغة مطالبات فعالة:

  1. كن دقيقا: قدم تعليمات أو أسئلة واضحة ومفصلة لمساعدة ماجستير القانون في فهم ما تبحث عنه.
  2. اضبط السياق: امنح LLM بعض المعلومات الأساسية أو السيناريو لمساعدته في إنشاء استجابات أكثر صلة.
  3. تحديد الأدوار: حدد الدور الذي يجب أن تقوم به LLM في استجابتها، مثل راوي القصص أو المعلم أو الخبير الفني.

لإنهاء جلسة LLM، اضغط على كنترول + د أو أدخل /bye يأمر. إذا كنت ترغب في بدء جلسة أخرى لاحقًا، فما عليك سوى فتح محطة جديدة وتشغيل ollama run phi3 يأمر. وبما أن النموذج قد تم تنزيله بالفعل، فسيبدأ التشغيل بسرعة دون الحاجة إلى تنزيله مرة أخرى.

ضع في اعتبارك أن أداء Raspberry Pi 5 له حدوده، ولا يمكنه سوى إخراج عدد قليل من الرموز المميزة في الثانية. للحصول على أداء أفضل، فكر في تشغيل Ollama على جهاز كمبيوتر أكثر قوة مزودًا ببطاقة رسومات مخصصة.

حقوق الصورة: أونسبلاش. لقطات من ديفيد موريلو.

اشترك في نشرتنا الإخبارية!

يتم تسليم أحدث البرامج التعليمية لدينا مباشرة إلى صندوق البريد الوارد الخاص بك

ديفيد موريلو

ديفيد موريلو هو كاتب محتوى محترف في مجال التكنولوجيا، ويغطي كل شيء بدءًا من المنتجات الاستهلاكية وحتى التقنيات الناشئة وتطبيقاتها عبر الصناعة. بدأ اهتمامه بالتكنولوجيا في سن مبكرة وازداد قوة على مر السنين.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى