كيف تبدأ مع Foundry المحلي الذكاء الاصطناعى


أصبح تشغيل LLM (نموذج تعلم اللغة) على جهاز الكمبيوتر الخاص بك Windows أسهل بفضل أداة AI المحلية من Microsoft. إنه مجاني تمامًا للاستخدام ويوفر مجموعة واسعة من نماذج الذكاء الاصطناعى للاختيار من بينها.

ما هو مسبك المحلي الذكاء الاصطناعي

أعلنت Microsoft مؤخرًا Foundry Local ، والتي تم تصميمها بشكل أساسي للمطورين. تتيح لك الأداة المجانية تشغيل LLMS على جهاز الكمبيوتر الخاص بك محليًا ، ولا يلزم الإنترنت. لن تحصل على نفس النتائج كما تفعل مع أدوات الذكاء الاصطناعي الشهيرة المستندة إلى مجموعة النظراء ، مثل ChatGPT أو Gemini أو Copilot ، لكنها لا تزال طريقة ممتعة لتجربة نماذج الذكاء الاصطناعي.

نظرًا لأنه لا يزال جديدًا وفنيًا في معاينة عامة فقط ، فهي لا تزال أساسية إلى حد ما ، لذلك لا تتوقع أي شيء يثير العقل. بمرور الوقت ، من المحتمل أن يتحسن Foundry Local ويحصل على المزيد من الميزات.

متعلق ب: بخلاف Foundry Local ، يمكنك الاستفادة من هذه الأساليب لإعداد مجموعات chatbots الخاصة بالإنترنت الخاصة بك.

مسبك المتطلبات الأساسية

قبل تثبيت أي شيء ، تأكد من أن جهاز الكمبيوتر الخاص بك قادر على التعامل مع نماذج Foundry المحلية الذكاء الاصطناعي. نعم ، من الناحية المثالية ، تريدك Microsoft أن يكون لديك جهاز كمبيوتر Copilot+ نهاية أعلى ، ولكنه ليس ضروريًا.

ستحتاج:

  • إصدار 64 بت من Windows 10 أو 11 أو Windows Server 2025 أو MacOS
  • مساحة محرك الأقراص الصلبة 3GB ، على الرغم من أنه يوصى بـ 15 جيجابايت ، خاصة إذا كان استخدام نماذج متعددة
  • ذاكرة الوصول العشوائي 8 جيجا بايت ، على الرغم من أن 16 جيجا بايت يوصى بأفضل النتائج
  • على الرغم من أنه غير مطلوب ، فإن Microsoft توصي بوجود GPU Nvidia (2000 سلسلة أو أحدث) أو Qualcomm Snapdragon X Elite (8 جيجابايت أو أكثر من الذاكرة) أو AMD GPU (6000 سلسلة أو أحدث) أو Apple Silicon

ستحتاج فقط إلى الوصول إلى الإنترنت أثناء التثبيت وعند تثبيت نموذج AI جديد. بعد ذلك ، لا تتردد في فصل. أيضًا ، تأكد من أن لديك امتيازات المسؤول لتثبيت Foundry Local.

كيفية تثبيت Foundry المحلي الذكاء الاصطناعى

على عكس العديد من التطبيقات ، لا تحتاج إلى الذهاب إلى موقع ويب أو متجر Microsoft لتثبيت Foundry Local. بدلاً من ذلك ، ستستخدم Winget ، والذي يتيح لك تثبيت البرنامج من خلال موجه سطر الأوامر. لا تقلق ، لا تحتاج إلى أن تكون مطورًا أو سيدًا لخط الأوامر للقيام بأي من هذا.

إذا كنت تفضل تثبيتًا أكثر تقليدية ، فقم بتنزيله من Github.

للنوافذ ، افتح نافذة طرفية. يضعط يفوز + x وانقر المحطة (المسؤول). أدخل الأمر التالي:

winget install Microsoft.FoundryLocal

أوافق على الشروط وانتظر إكمال التثبيت. قد يستغرق الأمر بضع دقائق.

بالنسبة إلى MacOS ، افتح نافذة طرفية وأدخل ما يلي:

brew tap microsoft/foundrylocal
brew install foundrylocal

إذا كنت تفضل تنزيل LLM على Raspberry Pi ، جرب هذه الخطوات.

تثبيت نموذج الذكاء الاصطناعي الأول

لأول مرة في الخارج ، توصي Microsoft بنموذج خفيف الوزن-PHI-3.5-MINI. ليس عليك أن تبدأ بهذا ، ولكن إذا كنت قصيرًا في المساحة ، فهذه طريقة جيدة لتجربة الأشياء دون التضحية بتخزين ثمين.

افتح نافذة طرفية وأدخل الأمر التالي:

foundry model run phi-3.5-mini

قد يستغرق الأمر عدة دقائق أو أكثر ، اعتمادًا على النموذج الذي تختاره. بالنسبة لي ، استغرق هذا النموذج بالذات دقيقتين فقط. أفضل جزء هو Foundry Local AI يقوم بتثبيت الإصدار الأمثل من النموذج لتكوين الأجهزة ، لذلك لا تترك للتعرف على ما يجب تثبيته بالضبط.

تثبيت نموذج PHI 3.5 MINI.

إذا كنت ترغب في تجربة نماذج أخرى ، تحقق من القائمة الكاملة باستخدام الأمر التالي:

foundry model list

يوضح كل نموذج في القائمة مقدار التخزين الذي يحتاجه والغرض منه. في الوقت الحالي ، كل طراز هو فقط لإنجاز الدردشة.

قائمة النماذج الكاملة على مسبك محلي.

التفاعل مع نماذج الذكاء الاصطناعي المحلي

لا توجد واجهة رسومية مفيدة للتفاعل مع نماذج الذكاء الاصطناعى التي تقوم بتثبيتها. بدلاً من ذلك ، ستفعل كل شيء من سطر الأوامر. ولكن ، لا يختلف الأمر كثيرًا عن الدردشة مع أي chatbot من الذكاء الاصطناعي. ما عليك سوى إدخال النص الخاص بك عندما ترى الموجه الوضع التفاعلي ، الرجاء إدخال النص الخاص بك.

كل نموذج الذكاء الاصطناعي له حدوده الخاصة. على سبيل المثال ، أدخلت موجهًا لـ PHI-3.5-MINI يسأل “ما هو مسبك محلي.لقد فعلت ذلك على وجه التحديد لتسليط الضوء على حقيقة أن معرفة هذا النموذج تقتصر على أوائل عام 2023 وقبل ذلك. تشير النتيجة إلى هذا القيد ، ولكنها تحاول الإجابة على السؤال بأفضل ما يمكن. تنبيه المفسد – لم يرد على السؤال بشكل صحيح ، لكن هذا ما توقعته.

باستخدام Foundry Local للإجابة على أسئلة حول Foundry Local.

للحصول على أفضل النتائج ، التمسك بأسئلة بسيطة لا تتطلب الكثير من الأبحاث أو نوع الأخبار الحالية/العاجلة.

إذا كنت ترغب في التبديل بين النماذج التي قمت بتثبيتها بالفعل ، فاستخدم المطالبة التالية:

foundry model run modelname

فقط استبدل “ModelName” مع النموذج المفضل لديك.

إذا كنت في وضع تفاعلي ، ويعرف أيضًا باسم وضع الدردشة ، فستحتاج إلى الخروج من نافذة الطرفية وبدء جلسة أخرى. حاليًا ، لا يوجد أمر خروج ، وهو بالتأكيد ميزة مطلوبة.

مسبك أوامر منظمة العفو الدولية تحتاج إلى معرفتها

على الرغم من وجود قائمة يمكنك التحقق منها ، إلا أنك تحتاج حقًا إلى معرفة عدد قليل من الأوامر لاستخدام Foundry Local. توضح لك هذه الأوامر جميع الأوامر المتاحة في كل من الفئات الرئيسية الثلاث – النموذج والخدمة وذاكرة التخزين المؤقت.

شاهد كل الأوامر المحلية للمسبك العام مع:

foundry --help

لأوامر النموذج ، استخدم:

foundry model --help

لأوامر الخدمة ، استخدم:

foundry service --help

لأوامر ذاكرة التخزين المؤقت ، استخدم:

foundry cache --help

طالما أنك تتذكر هذه ، فأنت لا تحتاج حقًا إلى القائمة الكاملة. ولكن ، ضع في اعتبارك أنه من المحتمل أن تتم إضافة أوامر جديدة بمرور الوقت مع بناء Microsoft على الخدمة. في الوقت الحالي ، ضع في اعتبارك أكثر من اختبار تجريبي أكثر من أداة كاملة.

إذا كنت بحاجة إلى أكثر مما يمكن أن يوفره Foundry Local ، التمسك بـ ChatGPT أو هذه البدائل. أو جرب أدوات الذكاء الاصطناعى هذه لتحسين حياتك وإنتاجيتك.

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى