كيفية تثبيت الذكاء الاصطناعي على الكمبيوتر مع أفضل 10 خيارات
هل فكرت يوماً في تحويل جهاز الكمبيوتر الخاص بك إلى مساعد ذكي؟ تثبيت الذكاء الاصطناعي على الكمبيوتر يمكن أن يحدث فرقاً كبيراً في الأداء، الأمان، والإنتاجية. في هذا المقال، سنستعرض كيف يمكن للذكاء الاصطناعي أن يجعل تجربتك مع الكمبيوتر أكثر ذكاءً وسلاسة من أي وقت مضى، وسنذكر لك أفضل نماذج الذكاء الاصطناعي للكمبيوتر، والتي ستغير طريقة عملك بالكامل.
ماذا يعني LLMs؟
نماذج اللغة الكبيرة (LLMs) هي أنظمة ذكاء اصطناعي متطورة يمكنها فهم اللغة البشرية وإنشاء نصوص شبيهة بالنصوص التي يكتبها البشر. تعتمد هذه النماذج على تقنيات التعلم العميق وتُدرّب على كميات هائلة من البيانات النصية، مما يسمح لها بفهم القواعد النحوية والسياق والمعاني المعقدة للغة.
كيف تعمل LLMs؟
تستخدم نماذج اللغة الكبيرة بنية الشبكات العصبية المعروفة باسم “المحولات” (Transformers). تتعلم هذه النماذج من خلال تحليل كميات هائلة من النصوص، وتحديد الأنماط والعلاقات بين الكلمات والعبارات. وعندما تُعطى هذه النماذج نصاً، فإنها تستخدم ما تعلمته لتوليد استجابات أو نصوص جديدة.
قدرات نماذج اللغة الكبيرة:
يمكن لنماذج اللغة أنتؤدي المهام التالية بسرعة وكفاءة:
- إنشاء نصوص: يمكنها كتابة مقالات، قصص، رسائل، وحتى أكواد برمجية.
- الترجمة: يمكنها ترجمة النصوص بين اللغات المختلفة.
- تلخيص النصوص: يمكنها تلخيص مقالات أو وثائق طويلة.
- الإجابة على الأسئلة: يمكنها الإجابة على الأسئلة بناءً على المعلومات التي تعلمتها.
أمثلة على نماذج اللغة الكبيرة:
- GPT-3 وGPT-4 (OpenAI)
- Gemini (Google)
- Llama 2 (Meta)
- BERT (Google)
مجالات استخدام LLMs:
تتلخص مجالات استخدام LLMs فيما يلي:
- خدمة العملاء.
- إنشاء المحتوى.
- الترجمة.
- التعليم.
- البحث.
- البرمجة.
والأهم، أنها قابلة لتثبيت الذكاء الاصطناعي على الكمبيوتر، بحيث يمكنك الاستفادة بشكل كامل من ميزاتها.
فوائد تثبيت الذكاء الاصطناعي على الكمبيوتر (تشغيل LLMs على جهاز الكمبيوتر)
مع التقدم المستمر في تقنيات الذكاء الاصطناعي، أصبحت نماذج اللغة الكبيرة (LLMs) مثل GPT وChatGPT أدوات محورية في العديد من المجالات. ومع ذلك، لا يزال الاعتماد على خدمات السحابة في تشغيل نماذج الذكاء الإصطناعي يشكل تحدياً لبعض المستخدمين، سواء من حيث الخصوصية أو السرعة أو التحكم. لهذا السبب، إليك أهم فوائد تثبيت الذكاء الاصطناعي على الكمبيوتر:
1. يوفر تشغيل LLMs محلياً تجربة فريدة ومثيرة:
فاستخدام نماذج الذكاء الاصطناعي على الكمبيوتر خاصتك يمنحك تجربة مختلفة تماماً عن استخدامها عبر الإنترنت. مما يعني أنك ستستكشف إمكانيات هذه التقنية بشكل مباشر وتجريبي.
2. الحفاظ على الخصوصية والتحكم
مما يعني أن بياناتك الشخصية تظل آمنة على جهازك، وأنك تتحكم بشكل كامل في كيفية استخدام هذه النماذج.
3. مزيد من الخصوصية والأمان
فعند استخدام النماذج السحابية مثل ChatGPT، يتم إرسال جميع البيانات التي تقوم بإدخالها إلى الخوادم التي تديرها الشركات. هذه الشركات يمكنها الاحتفاظ بتلك البيانات أو استخدامها لأغراض أخرى، مما يثير القلق حول الخصوصية والأمان. بالمقابل، عندما يعمل الذكاء الاصطناعي على الكمبيوتر الخاص بك، تظل بياناتك محمية بالكامل، ولا يتم مشاركتها مع أي جهة خارجية.
4. تكامل LLMs مع التطبيقات الأخرى
من خلال استغلال تكامل LLMs مع التطبيقات الأخرى عبر خوادم API، يمكنك ربط هذه النماذج بتطبيقات أخرى تستخدمها، مما يوسع من إمكانياتها.
على سبيل المثال، يمكن دمج GPT4All مع بيئات مثل VSCode لتطوير مساعدات برمجية ذكية أو مساعدات للكتابة لكتابة الأكواد البرمجية.
5. ربط المجلدات المحلية تقديم إستجابات أكثر دقة:
مما يعني أن هذه النماذج يمكنها تحليل واستخدام معلومات من الملفات الموجودة على جهازك، مما يجعل استجاباتها أكثر صلة بالموضوع.
6. التفاعل مع الذكاء الاصطناعي في بيئة مرنة.
فبعض النماذج تفرض قيوداً على بعض المواضيع. واستخدامها على جهازك يخلصك من هذه القيود بشكل كلي.
على سبيل المثال، إذا كنت تستخدم GPT4All أو NextChat على جهاز الكمبيوتر الشخصي، يمكنك الاستفادة من الوصول غير المحدود إلى النموذج دون القلق بشأن السياسة التي تحد من الوصول إلى بعض الموضوعات أو الاستفسارات.
7. التخصيص والمرونة في استخدام النماذج
أحد أبرز الأسباب لتثبيت الذكاء الاصطناعي على الكمبيوتر هو المرونة التي تقدمها النماذج المحلية. يمكن تخصيص إعدادات النموذج بسهولة لتحقيق أقصى استفادة من النموذج في سياقات معينة. على سبيل المثال:
- تخصيص استجابات النموذج: يمكن للمستخدم تعديل نمط الكتابة أو تخصيص الإعدادات لتتناسب مع احتياجاته الشخصية أو المهنية.
- التحكم في المعالجة: إذا كنت تستخدم GPU، يمكنك تخصيص استخدام الذاكرة لتحقيق أفضل أداء.
- القدرة على تشغيل عدة نماذج: كما توفر بعض النماذج مثل Jan وLM Studio القدرة على تشغيل عدة نماذج في وقت واحد، مما يسمح للمستخدم بمقارنة الاستجابات واختيار الأنسب.
8. الاستقلالية والمرونة في التفاعل مع الذكاء الاصطناعي مع تجاوز قيود البيانات
عند تثبيت الذكاء الاصطناعي على الكمبيوتر، يكون لديك استقلالية كاملة عن القيود المفروضة من الخدمات السحابية، مثل الحظر على القيود على حجم البيانات.
9. التعلم والتحسين المستمر
حيث يمكن للمطورين تخصيص النماذج وتحسينها باستخدام التعلم المستمر أو التدريب المتقدم، والتعرف أكثر على كيفية عملها.
على سبيل المثال، يعتبر llama.cpp مثالاً جيداً على إطار عمل مفتوح المصدر. فهو يتيح للمطورين تعلم كيفية تشغيل النماذج والتفاعل معها باستخدام أدوات البرمجة المتقدمة.
10. توفير التكلفة
على الرغم من أن النماذج المحلية قد تتطلب بعض التكاليف الأولية في شراء الأجهزة أو الترقية، إلا أن استخدامها على المدى الطويل يمكن أن يوفر تكاليف اشتراك في خدمات السحابة.
عند استخدام API مثل OpenAI، قد يضطر المستخدم لدفع رسوم اشتراك شهرية أو رسوم حسب الاستهلاك، ولكن تشغيل النموذج المحلي يعني أنه يمكنك تجنب هذه الرسوم وتحقيق توفير في التكاليف على المدى الطويل.
11. سهولة الوصول والاستخدام
تشغيل النماذج المحلية يعني إمكانية الوصول المستمر إلى الذكاء الاصطناعي، دون الحاجة إلى الاتصال بالإنترنت أو الاعتماد على الخوادم السحابية.
على سبيل المثال، عندما تستخدم Ollama أو LM Studio، يمكنك تنزيل النموذج وتثبيته على جهاز الكمبيوتر الخاص بك، ومن ثم استخدامه مباشرة عبر الواجهة المحلية. يمكن للمستخدمين الاستفادة من الوصول الفوري إلى النماذج، مما يقلل من وقت الانتظار ويحسن من إنتاجيتهم.
12. السرعة وكفاءة الأداء
عند تثبيت الذكاء الاصطناعي على الكمبيوتر الشخصي، يمكنك الاستفادة من المعالجة المحلية، مما يعزز السرعة والكفاءة بشكل كبير.
عند استخدام تسريع GPU (وحدة المعالجة الرسومية) على جهاز الكمبيوتر الخاص بك، يمكن للنماذج المحلية معالجة البيانات بشكل أسرع بكثير مقارنة بنماذج السحابة. في بعض الحالات، يمكن أن تكون النماذج المحلية أسرع وأكثر دقة من تلك التي تعمل على الخوادم السحابية، خصوصاً إذا كانت لديك أجهزة قوية مثل بطاقات Nvidia GPU أو معالجات Apple M-series.
تعتبر تقنيات مثل GPT4All وJan من أبرز الأمثلة على النماذج التي يمكن تشغيلها محلياً باستخدام تسريع GPU، ما يسمح بتحقيق أداء عالٍ في الوقت الفعلي.
اقرأ أيضاً: أفضل 6 تطبيقات ذكاء اصطناعي للهاتف : تحدث مع الـ Ai
أهم نماذج الذكاء الاصطناعي التي يمكنك تثبيتها على الكمبيوتر
إليك أهم النماذج التي يمكنها أن تجعل عملك أكثر سلاسة من خلال تثبيتها على جهازك:
1. GPT4All:
هو إطار عمل ونموذج دردشة قائم على نماذج اللغة الكبيرة (LLMs)، ويتيح للمستخدمين تشغيل هذه النماذج محلياً على أنظمة التشغيل المختلفة. كما يوفر واجهة برمجية (API) لدمج النماذج مع التطبيقات الأخرى مثل مساعدات البرمجة في VSCode. يُعد هذا الإطار مثالي للمبتدئين حيث يمكن تنزيله وتشغيله على الأجهزة المحلية بسهولة.
الوظيفة الأساسية:
- هو إطار عمل (framework) وتطبيق دردشة مصمم لتشغيل نماذج اللغة الكبيرة (LLMs) محلياً على أنظمة التشغيل المختلفة (Windows, macOS, Linux).
- يوفر واجهة برمجة تطبيقات (API) لدمج LLMs مع تطبيقات أخرى.
- يُعتبر سهل الاستخدام للغاية، مما يجعله مثالياً للمبتدئين.
الرابط الرئيسي:
طريقة التثبيت:
- تنزيل العميل (البرنامج):
الخطوة الأولى هي تنزيل ملف التثبيت من مستودع GitHub الخاص بـ nomic-ai/gpt4all. حيث لديك عدة خيارات بناءً على على نظام التشغيل الذي تستخدمه، وبما أنني أستخدم نظام التشغيل ويندوز فسوف أختار: Windows.

بعد النقر على الرابط المخصص لنظام التشغيل (في مثالنا Windows)، قم بتحميل ملف التثبيت الخاص بالنظام الخاص بك.
- تنزيل النموذج:
بعد تثبيت الذكاء الاصطناعي على الكمبيوتر (تثبيت حزمة GPT4All)، سيتم فتح التطبيق، وستظهر لك شاشة تطلب منك اختيار نموذج معين من مجموعة النماذج المتاحة لتحميله. اختر نموذجاً، انقر على “Download”، وانتظر حتى يكتمل تحميله.

- اختيار النموذج:
بعد تنزيل النموذج، قم بإغلاق صفحة النموذج للانتقال إلى واجهة المستخدم الخاصة بالدردشة (Chat Interface).
في واجهة الدردشة، اختر النموذج الذي قمت بتحميله مسبقاً (في هذه الحالة، اخترنا نموذج Nous Hermes 2 Mistral DPO).

- توليد الاستجابة:
قبل توليد الاستجابة، ولجعلها عملية سريعة، تأكد من أنك تستخدم تقنية تسمح بتشغيل التطبيقات عبر وحدة المعالجة الرسومية GPU. إذا كانت بطاقتك من:
Nvidia، يجب تثبيت CUDA (إطار عمل مجاني تم تطويره من قبل شركة NVIDIA)، حيث أنه يسمح للتطبيق تلقائياً باستخدام وحدة المعالجة الرسومية (GPU) في جهازك لتسريع عملية توليد الاستجابة.
إذا كانت بطاقتك من AMD أو Intel، يجب استخدام تقنيات بديلة مثل OpenCL أو OneAPI، حسب نوع البطاقة، للاستفادة من GPU في تسريع العمليات.
ويُفضل القيام بذلك قبل تثبيت الذكاء الاصطناعي على الكمبيوتر.

- إعدادات النموذج:
من خلال الإعدادات داخل التطبيق، يمكنك تخصيص استجابة النموذج عن طريق تعديل معلمات النموذج المختلفة. مثل الحد الأقصى لطول الاستجابة التي يمكن للنموذج توليدها، أو مدى التنوع في الاستجابة (كلما كانت القيمة أعلى، كان النموذج أكثر إبداعاً في توليد النصوص). أو حتى طول النص الذي يمكن للنموذج معالجته في الوقت الواحد.
كما يمكن ربط المجلدات المحلية بالنموذج للحصول على استجابات دقيقة وموافقة للسياق.

- تمكين خادم API:
يقدم GPT4All خيار تمكين خادم API، مما يتيح لك استخدام النموذج في التطبيقات الأخرى عبر API.
لكي تتمكن من الوصول إلى نماذج OpenAI مثل GPT-3.5 و GPT-4، يجب أن تقوم بتوفير مفتاح API، والذي يمكنك الحصول عليه من موقع OpenAI بعد إنشاء حساب وتسجيل الدخول. فعند تثبيت هذه النماذج لاستخدامها، ستحتاج إلى إدخال مفتاح API.

بعد ذلك، يمكنك اختيار نموذج مثل ChatGPT-4 في واجهة الدردشة واستخدامه كما لو كنت تستخدمه عبر متصفح الإنترنت. وهي أول فائدة لتثبيت الذكاء الاصطناعي على الكمبيوتر..

- استخدام النموذج:
بمجرد إعداد النموذج واختيارك له، يمكنك البدء في استخدامه مباشرة عبر واجهة المستخدم الخاصة به. التفاعل مع النموذج سيكون مشابهاً تماماً لاستخدامه عبر الإنترنت، لكن مع ميزة السرعة العالية والاستجابة الفورية.
2. LM Studio:
LM Studio هو تطبيق مشابه لـ GPT4All، ولكن مع بعض الاختلافات الرئيسية. بينما يسمح لك GPT4All بربط مجلدات محلية لتحسين الاستجابات عبر سياق محدد، فإن LM Studio لا يوفر هذه الخاصية. ومع ذلك، LM Studio يوفر مجموعة متنوعة من الخيارات لتخصيص نماذج اللغة الكبيرة (LLMs) التي تعمل محليًا، مما يعزز القدرة على مقارنة النتائج بين النماذج واستخدامها في تطبيقات متعددة.
الوظيفة الأساسية:
- مشابه لـ GPT4All، لكنه يتيح تشغيل عدة نماذج في وقت واحد لمقارنة النتائج.
- LM Studio هو تطبيق يتيح للمستخدمين تشغيل نماذج اللغة الكبيرة (LLMs) محلياً على أجهزة الكمبيوتر الخاصة بهم.
- يوفر خيارات مشابهة لـ GPT4All، ولكن مع بعض الاختلافات الرئيسية، مثل عدم القدرة على ربط مجلد محلي لتوليد استجابات واعية بالسياق.
- يركز على توفير تجربة مستخدم أكثر تقدماً مع خيارات تخصيص متعددة.
الرابط الرئيسي:
طريقة التثبيت:
أ. تثبيت الذكاء الاصطناعي على الكمبيوتر.:
أولاً، قم بتنزيل المثبّت من الصفحة الرئيسية لـ LM Studio. بعد ذلك، قم بتثبيت التطبيق باستخدام الخيارات الافتراضية المتاحة.
بمجرد اكتمال عملية التثبيت، يمكنك تشغيل LM Studio.

ب. تنزيل النموذج:
في LM Studio، يمكنك تنزيل أي نموذج من موقع Hugging Face باستخدام وظيفة البحث المدمجة.
في هذا المثال، سنقوم بتنزيل النموذج الأصغر حجماً، وهو Google’s Gemma 2B Instruct. يتم ذلك عن طريق تحديد النموذج المناسب ومن ثم النقر على “تنزيل (Download)”. بمجرد اكتمال التنزيل، يكون النموذج جاهزاً للاستخدام في LM Studio.

ج. توليد الاستجابة:
بعد تنزيل النموذج، يمكنك التفاعل معه عبر واجهة الدردشة كما هو الحال مع النماذج السحابية. LM Studio يقدم خيارات تخصيص أكثر من GPT4All، مما يسمح لك بتعديل الإعدادات وتحسين الاستجابات حسب احتياجاتك.

د. خادم الاستدلال المحلي:
مثل GPT4All، يتيح لك LM Studio تخصيص النموذج بسهولة من خلال إعدادات النموذج.
بعد تشغيل الخادم، يمكنك الوصول إلى النموذج باستخدام حزمة OpenAI API Python، التي تتيح لك التفاعل مع النموذج مباشرة من خلال كود Python. أو استخدام CURL، وهو أداة سطر أوامر تسمح بإرسال طلبات HTTP إلى الخادم محليًا. أو عبر دمج التطبيق مباشرة في أي تطبيق آخر عبر واجهة برمجة التطبيقات (API). أو إعداد خادم محلي يقوم بتشغيل نماذج Open AI باستخدام مفتاح API. مما يسهل تكامل LM Studio مع تطبيقات مختلفة.

هـ. استخدام نماذج متعددة:
ميزة رئيسية في LM Studio هي القدرة على تشغيل العديد من النماذج في وقت واحد.
هذه الميزة تسمح للمستخدمين بمقارنة نتائج النماذج المختلفة واستخدامها في تطبيقات متنوعة. ومع ذلك، لتشغيل عدة جلسات نموذجية في وقت واحد، من المهم أن تكون لديك ذاكرة فيديو (VRAM) قوية في بطاقة الرسومات (GPU)، حيث يتطلب هذا نوعًا من الموارد العالية.

و. التخصيص (Fine-tuning):
التخصيص (Fine-tuning) هو طريقة أخرى لتحسين الاستجابات وجعلها أكثر دقة وملاءمة للسياق. في LM Studio، يمكنك تخصيص النموذج الذي تم تنزيله باستخدام بيانات مخصصة لتحسين أدائه.
على سبيل المثال، إذا كنت تستخدم نموذج Google Gemma، يمكنك اتباع دورة تدريبية لتحسين النموذج باستخدام تعليمات مخصصة. ستتعلم كيفية تشغيل الاستدلال على وحدات المعالجة الرسومية (GPUs) أو وحدات المعالجة العميقة (TPUs) وكيفية تحسين النموذج باستخدام مجموعة بيانات محاكاة الأدوار (role-play dataset).
3. Jan:
Jan هو أحد أشهر التطبيقات المحلية التي تعمل على نماذج اللغة الكبيرة (LLMs)، وهو يتميز بسرعة عالية في توليد الاستجابة، حيث يمكنه توليد استجابة بمعدل 53.26 رمزًا في الثانية، وهي أسرع من التطبيقات المحلية الأخرى مثل GPT4All، الذي يولد الاستجابة بمعدل 31 رمزًا في الثانية. لذا، فهو من أفضل الخيارات لتشغيل الذكاء الاصطناعي على الكمبيوتر.
الوظيفة الأساسية:
- Jan هو تطبيق LLM محلي يتميز بواجهة مستخدم جذابة وسرعة استجابة عالية.
- يُعتبر من أسرع تطبيقات LLM المحلية، حيث يولد الاستجابات بسرعة 53.26 رمزاً/ثانية، مقارنة بـ 31 رمزاً/ثانية لـ GPT4All.
- أحد أسرع تطبيقات LLM المحلية حيث يتيح استجابة بسرعة 53.26 رمزا في الثانية.
- كما يسمح للمستخدم بتثبيت الإضافات واستخدام نماذج الملكية.
الرابط الرئيسي:
طريقة التثبيت:
أ. التثبيت:
أول خطوة هي تنزيل المثبّت من الموقع الرسمي لـ Jan.ai. وبعد اكتمال التنزيل، يجب تثبيت التطبيق (والذي يعني تثبيت الذكاء الاصطناعي على الكمبيوتر) باستخدام الإعدادات الافتراضية. من ثم بمجرد اكتمال التثبيت، يمكننا تشغيل التطبيق والاستفادة من واجهته السهلة في الاستخدام.

ب. استيراد النموذج:
بدلاً من تنزيل نموذج جديد، يمكننا استيراد النماذج التي تم تنزيلها مسبقاً من تطبيقات مثل GPT4All وLM Studio. للقيام بذلك، نذهب إلى صفحة النموذج داخل Jan، ونضغط على زر استيراد النموذج (Import Model).

بعد ذلك، ننتقل إلى دليل التطبيقات على جهاز الكمبيوتر الخاص بنا، حيث توجد النماذج المستوردة من GPT4All وLM Studio. نقوم باختيار كل نموذج لاستيراده إلى Jan:
امتداد نموذج GPT4All: C:/Users/<user_name>/AppData/Local/nomic.ai/GPT4All
امتداد نموذج LM Studio: C:/Users/<user_name>/.cache/lm-studio/models
ج. الوصول إلى النماذج المحلية:
بعد استيراد النماذج بنجاح، يمكننا الوصول إليها من خلال واجهة الدردشة الخاصة بـ Jan.
لفتح النماذج، نذهب إلى الجزء الأيمن من واجهة المستخدم حيث نختار النموذج الذي نريد استخدامه. على سبيل المثال، يمكننا اختيار نموذج Nous-Hermess-2-Mistral-7b.

بمجرد تحديد النموذج، نبدأ في استخدامه على الفور دون الحاجة إلى مزيد من التحميل.
د. توليد الاستجابة:
تتم عملية توليد الاستجابة بعد تثبيت الذكاء الاصطناعي على الكمبيوتر بشكل طبيعي وسريع، ما يجعل Jan واحداً من أسرع التطبيقات المحلية.
الميزة الفريدة في Jan هي أنه يمكنه تثبيت الامتدادات (Extensions) واستخدام نماذج خاصة من شركات مثل OpenAI، MistralAI، Groq، TensorRT، وTriton RT. وهذا يوفر لك مرونة كبيرة في الاختيار من بين مجموعة متنوعة من النماذج الخاصة.

هـ. خادم API المحلي:
مثلما يحدث مع LM Studio وGPT4All، يمكن استخدام Jan كـ خادم API محلي. هذا يعني أنه يمكنك تشغيل خادم محلي يمكن الوصول إليه من خلال تطبيقات أخرى باستخدام API، مما يتيح لك دمج Jan بسهولة في مشاريع أخرى.

بالإضافة إلى ذلك، يقدم Jan مزيداً من إمكانيات تسجيل الأحداث (logging capabilities) والتحكم في استجابة النموذج، مما يعطيك تحكماً أكبر في كيفية إدارة النموذج.
4. llama.cpp:
llama.cpp هو إطار عمل مفتوح المصدر لتشغيل نماذج اللغة الكبيرة (LLMs)، وهو مكتوب بلغة C/C++ مما يجعله سريعًا وفعالًا في المعالجة. يتم استخدام llama.cpp في العديد من التطبيقات المحلية والتطبيقات المستندة إلى الويب التي تعتمد على نماذج اللغة الكبيرة. تعلم استخدامه محليًا يمنحك ميزة كبيرة لفهم كيفية عمل التطبيقات الأخرى التي تعتمد على LLM وراء الكواليس.
الوظيفة الأساسية:
- يمكنه العمل على CPU، ولكن لتسريع الأداء، يحتاج إلى استخدام GPU عبر إعدادات خاصة.
- llama.cpp هو إطار عمل LLM مفتوح المصدر مكتوب بلغة C/C++.
- يتميز بالسرعة والكفاءة، مما يجعله مناسبًا لتشغيل LLMs محليًا.
- يُستخدم كأساس للعديد من تطبيقات الذكاء الاصطناعي المحلية والويب.
الرابط الرئيسي:
طريقة التثبيت:
أ. تنزيل llama.cpp:
أول خطوة لتثبيت llama.cpp هي الانتقال إلى دليل المشروع باستخدام أمر cd في سطر الأوامر (shell). إذا كنت غير مألوف باستخدام الطرفية، يمكنك العثور على دروس مقدمة حول كيفية استخدامها، مثل Introduction to Shell.
بعد الوصول إلى الدليل المناسب، نقوم بنسخ الملفات من GitHub باستخدام أمر git clone:
git clone --depth 1 https://github.com/ggerganov/llama.cpp.git
هذا الأمر سيقوم بتحميل الكود المصدري من GitHub وتخزينه في جهاز الكمبيوتر الخاص بك.
ب. استخدام MakeFile على Windows:
الأداة make متوفرة بشكل افتراضي على أنظمة Linux وmacOS، ولكن على Windows تحتاج إلى اتباع الخطوات التالية:
قم بتحميل w64devkit (وهو مجموعة من الأدوات التي تتضمن Fortran) من الإنترنت. بعد ذلك فك ضغط الملف ضمن جلد على جهازك، حيث ستجد ضمنه الملف w64devkit.exe والذي سيسمح لك بتشغيل الذكاء الاصطناعي على الكمبيوتر، قم بتشغيله.

بعدها، استخدم الأمر التالي للوصول إلى مجلد llama.cpp:
$ cd C:/Repository/GitHub/llama.cpp
وأخيراً، استخدم الأمر التالي لتثبيت llama.cpp:
$ make
هذا الأمر سيقوم بتثبيت جميع الحزم والاعتماديات اللازمة لتشغيل llama.cpp.

ج. بدء تشغيل خادم WebUI لـ llama.cpp:
بعد تثبيت llama.cpp بنجاح، يمكننا تشغيل خادم WebUI الخاص به باستخدام الأمر التالي:
$ ./server -m Nous-Hermes-2-Mistral-7B-DPO.Q4_0.gguf -ngl 27 -c 2048 –port 6589
هذا الأمر يقوم بتشغيل الخادم المحلي على العنوان http://127.0.0.1:6589/. وبعد تشغيل الخادم، يمكنك نسخ هذا الرابط وفتحه في المتصفح للوصول إلى واجهة llama.cpp.

د. توليد الاستجابة:
عند استخدام llama.cpp على CPU، قد تكون سرعة توليد الاستجابة بطيئة مقارنةً باستخدام GPU.
لتحسين الأداء وتسريع توليد الاستجابة، يجب تثبيت نسخة من llama.cpp تدعم GPU. لتنشيط هذه النسخة، استخدم الأمر التالي:
$ make LLAMA_CUDA=1
هذا الأمر سيقوم بتعديل llama.cpp ليعمل باستخدام وحدة المعالجة الرسومية (GPU)، مما يحسن الأداء بشكل ملحوظ.

هـ. استخدام llamafile:
إذا كنت تجد llama.cpp معقدًا بعض الشيء، يمكنك استخدام llamafile. هذه الأداة تبسط الأمور من خلال دمج llama.cpp مع Cosmopolitan Libc في ملف تنفيذي واحد.
5. llamafile:
llamafile هو أداة مبتكرة تتيح لك تشغيل نماذج لغة كبيرة (LLM) تعمل بالذكاء الاصطناعي على الكمبيوتر (مثل LLaMA) من خلال ملف واحد فقط قابل للتنفيذ (Executable File). ودون الحاجة إلى تثبيت أي بيئة خارجية أو مكتبات إضافية. وهو هو مشروع مفتوح المصدر يعتمد على llama.cpp، لكنه يضيف عليه فكرة رائعة، وهي إمكانية دمج النموذج + الكود + التكوين في ملف واحد فقط (.exe على ويندوز، أو ملف عادي على لينوكس/ماك)، بحيث يصبح بإمكانك توزيع هذا الملف وتشغيل النموذج في أي مكان بكل سهولة.
الوظيفة الأساسية:
- يدعم تكامل تطبيقات متعددة، مما يجعله أداة سهلة وسريعة للوصول إلى نماذج LLM ل الذكاء الاصطناعي على الكمبيوتر.
- llamafile هو إطار عمل يهدف إلى تبسيط تشغيل نماذج اللغة الكبيرة (LLMs) للمطورين والمستخدمين النهائيين.
- يجمع بين llama.cpp وCosmopolitan Libc في ملف تنفيذي واحد، مما يزيل التعقيدات المرتبطة بتشغيل LLMs.
- يجعل الوصول إلى LLMs محلياً أسهل وأكثر سلاسة.
الرابط الرئيسي:
طريقة التثبيت:
أ. تنزيل ملف النموذج:
أول خطوة هي تنزيل نموذج اللغة الذي ترغب في استخدامه من مستودع llamafile على GitHub.
في هذا المثال، سنقوم بتنزيل LLaVA 1.5 لأنه يدعم فهم الصور أيضاً، مما يجعله نموذجاً متعدد الاستخدامات يمكنه التعامل مع النصوص والصور في نفس الوقت.

ب. إجراء التغييرات على Windows:
إذا كنت تستخدم Windows، يجب أن تضيف “.exe” إلى أسماء الملفات في الطرفية لكي تتمكن من تشغيلها.
للقيام بذلك، انقر بزر الفأرة الأيمن على الملف الذي قمت بتنزيله، ثم اختر إعادة التسمية (Rename).

أضف “.exe” إلى اسم الملف لضمان أنه قابل للتنفيذ في بيئة Windows.
ج. تشغيل LlamaFile:
بعد إجراء التغييرات على أسماء الملفات، يجب أن تنتقل إلى دليل llamafile باستخدام الأمر cd في الطرفية. يجب أن تكون قد قمت بتنزيل النموذج ووضعه في المجلد الصحيح.
لاستخدام llamafile، قم بتشغيل الأمر التالي في الطرفية لبدء خادم llama.cpp:
$ ./llava-v1.5-7b-q4.llamafile -ngl 9999

عند تنفيذ هذا الأمر، سيبدأ خادم الويب في العمل باستخدام GPU دون الحاجة إلى أي إعدادات إضافية أو تكوين معقد. هذا يجعل العملية أكثر بساطة للمستخدمين.
بمجرد أن يبدأ الخادم، سيتم فتح المتصفح تلقائياً في واجهة llama.cpp. إذا لم يحدث ذلك، يمكنك الوصول إلى الواجهة مباشرة عبر الرابط التالي: http://127.0.0.1:8080/.
د. توليد الاستجابة:
بعد أن يتم تكوين النموذج بنجاح، يمكنك بدء استخدام التطبيق ببساطة.
6. Ollama
هو أداة تسهل الوصول إلى نماذج اللغة الكبيرة (LLMs) مثل Llama 3 وMistral وGemma عبر الطرفية (terminal). توفر Ollama طريقة مباشرة وسريعة لاستخدام هذه النماذج على جهازك المحلي، مما يجعلها أداة ممتازة للوصول إلى نماذج اللغة دون الحاجة إلى إعدادات معقدة.
الوظيفة الأساسية:
- يسهل الوصول إلى نماذج اللغة الكبيرة (LLMs) مثل Llama 3 وMistral وGemma عبر سطر الأوامر (terminal).
- يدعم تكامل تطبيقات متعددة، مما يجعله أداة فعالة للوصول السريع والسهل إلى LLMs محلياً.
الرابط الرئيسي:
تثبيت Ollama:
أولاً، يمكنك تنزيل Ollama من صفحة التنزيل الخاصة به على الإنترنت. بعد التنزيل، قم بتثبيت الأداة باستخدام الإعدادات الافتراضية. بمجرد اكتمال التثبيت، سيظهر شعار Ollama في شريط الإعلامات على جهازك. والآن، Ollama جاهز للاستخدام ويمكنك الوصول إليه من خلال الطرفية.
ب. تشغيل Ollama:
لتشغيل نموذج Llama 3 عبر Ollama، استخدم الأمر التالي في الطرفية:
$ ollama run llama3
بعد تشغيل هذا الأمر، سيكون نموذج Llama 3 جاهزاً للاستخدام على جهازك المحلي. وستتمكن من رؤية قائمة بالأوامر المتاحة لاستخدام نماذج أخرى إذا كنت ترغب في تجربة نماذج لغة أخرى باستخدام Ollama.

ج. تشغيل النماذج المخصصة:
إذا كنت قد قمت بتنزيل نماذج مخصصة أو نماذج من llama.cpp وترغب في استخدامها عبر Ollama، يمكنك اتباع الخطوات التالية:
أولاً، انتقل إلى مجلد llama.cpp باستخدام الأمر cd:
$ cd C:/Repository/GitHub/llama.cpp
ثم، قم بإنشاء ملف نموذج جديد يسمى Modelfile باستخدام الأمر التالي:
$ echo “FROM ./Nous-Hermes-2-Mistral-7B-DPO.Q4_0.gguf” > Modelfile
هذا الأمر يقوم بإنشاء ملف يحتوي على تعريف النموذج الذي تريد تشغيله.
بعد ذلك، استخدم الأمر التالي لبناء النموذج:
$ ollama create NHM-7b -f Modelfile
هذا الأمر يقوم بإنشاء النموذج المخصص NHM-7b باستخدام Ollama.
لتشغيل هذا النموذج المخصص، استخدم الأمر التالي:
$ ollama run NHM-7b
بمجرد تشغيل النموذج، ستتمكن من استخدامه مثل أي تطبيق دردشة آخر، حيث يمكنك التفاعل مع Ollama عبر الطرفية.
د. استخدام نماذج من Hugging Face:
يمكنك تنزيل أي نموذج LLM من Hugging Face باستخدام الامتداد .gguf واستخدامه مع Ollama عبر الطرفية.
بهذه الطريقة، يمكن لمستخدمي Ollama الوصول بسهولة إلى نماذج متنوعة وتحميلها من Hugging Face وتشغيلها محلياً دون الحاجة إلى تحميلها من الإنترنت في كل مرة.
7. NextChat:
NextChat، الذي كان يُعرف سابقًا باسم ChatGPT-Next-Web، هو تطبيق دردشة يتيح لك استخدام نماذج GPT-3 و GPT-4 و Gemini Pro عبر مفتاح API. يتميز NextChat بتوفير واجهة ويب UI، كما يمكنك نشر تطبيقك الخاص باستخدام Vercel بنقرة واحدة فقط. يعد NextChat أداة قوية للمطورين والمستخدمين الذين يرغبون في الوصول إلى نماذج اللغة الكبيرة بشكل محلي وفي بيئة تحكم كامل.
الوظيفة الأساسية:
- NextChat (المعروف سابقاً باسم ChatGPT-Next-Web) هو تطبيق دردشة يسمح باستخدام نماذج GPT-3 وGPT-4 وGemini Pro عبر مفاتيح API.
- يتوفر كواجهة مستخدم ويب، ويمكن نشره على Vercel بنقرة واحدة.
- تطبيق دردشة يستخدم نماذج GPT-3 وGPT-4 وGemini Pro عبر مفتاح API.
- يتيح استخدام نماذج Google Gemini وOpenAI في وضع محلي مع تحكم كامل في تخصيص النموذج.
الرابط الرئيسي:
طريقة التثبيت:
أ. التثبيت:
أول خطوة هي تنزيل المثبّت من مستودع GitHub الخاص بـ NextChat. بالنسبة لنظام Windows، اختر ملف .exe للتثبيت.

بعد تنزيل الملف، قم بتثبيت التطبيق باستخدام الإعدادات الافتراضية، حيث لا حاجة لتعديل أي شيء أثناء عملية التثبيت.
ب. إعداد مفتاح API:
لكي يعمل NextChat، يجب عليك إضافة مفتاح API من Google AI أو OpenAI.

للحصول على مفتاح API من Google AI: توجه إلى Gemini API. من ثم انقر على الزر “Get API Key” في Google AI Studio. وبعد الضغط، قم بإنشاء المفتاح ونسخه.
بعد حصولك على مفتاح API، اذهب إلى إعدادات NextChat، حيث ستجد قسم “Model Provider”. اختر Google كمزود النموذج، ثم الصق مفتاح API في الحقل المخصص له.

ج. توليد الاستجابة:
بعد إعداد المفتاح، توجه إلى الصفحة الرئيسية للتطبيق حيث يوجد مربع الدردشة. من ثم اضغط على أيقونة الروبوت () الموجودة فوق مربع الإدخال، ثم اختر نموذج Gemini Pro.

الآن يمكنك استخدام Google Gemini محلياً مع التحكم الكامل في التخصيص. كما أن بيانات المستخدم يتم حفظها محلياً، مما يعزز الخصوصية.
بالإضافة إلى ذلك، يمكنك استخدام مفتاح API من OpenAI للوصول إلى نماذج GPT-4 واستخدامها محلياً، مما يساعدك في توفير رسوم الاشتراك الشهري.
8. Gpt-NeoX:
الوظيفة: Gpt-NeoX هو إطار عمل مفتوح المصدر يستخدم لتشغيل نماذج GPT-3 مشابهة للنماذج التي تقدمها OpenAI.
الفائدة منه: يتيح للمستخدمين تشغيل النماذج محلياً باستخدام موارد الجهاز، مع إمكانية تعديل النموذج وفقاً للبيانات الخاصة بهم.
طريقة التثبيت: يتم تنزيل المثبّت من GitHub، ثم يقوم المستخدم بتثبيت النموذج وتشغيله باستخدام Python. يعتمد التثبيت على أطر مثل TensorFlow أو PyTorch، ويمكن تخصيص النماذج وتحسينها باستخدام مكتبات مختلفة.
الإعدادات: يمكن للمستخدم تخصيص استجابة النموذج وضبطه باستخدام معلمات مختلفة. يمكن ربط النموذج بملفات البيانات المحلية لتعزيز دقة الإجابات أو تعديل النماذج لتتوافق مع الاستخدامات المختلفة.
9. BLOOM:
الوظيفة: BLOOM هو نموذج لغة كبير مفتوح المصدر تم تطويره من قبل مختبرات BigScience. يُعد من النماذج المتقدمة التي تدعم اللغة الطبيعية متعددة اللغات ويدعم تثبيت الذكاء الاصطناعي على الكمبيوتر لاستخدامه في التطبيقات المحلية دون الحاجة للاتصال بالإنترنت.
طريقة التثبيت: يتم تثبيت BLOOM من خلال تنزيله من Hugging Face. يتطلب التثبيت بعض الأدوات مثل Transformers وPyTorch لضمان تكامل النموذج على الأنظمة المحلية. يمكن استخدام GPU لتسريع العمليات.
الإعدادات: يتيح للمستخدم تخصيص الإعدادات لتحديد أي نوع من المحتوى أو الأسئلة التي يود النموذج الرد عليها. كما يمكن للمستخدمين تخصيص النموذج باستخدام مجموعات البيانات الخاصة بهم للحصول على استجابات دقيقة للمجالات المحددة. وذلك بعد تثبيت الذكاء الاصطناعي على الكمبيوتر.
10. Mistral
هو نموذج لغة كبير مفتوح المصدر يتميّز بخفة حجمه وكفاءته العالية. تم تطويره ليكون بديلًا خفيفًا وسريعًا لنماذج GPT، ويسمح بتشغيل الذكاء الاصطناعي على الكمبيوتر دون الحاجة إلى موارد ضخمة.
الوظيفة: يوفّر Mistral إمكانيات معالجة لغة طبيعية قوية مع استهلاك منخفض للذاكرة مقارنةً بالنماذج العملاقة. يمكن استخدامه لتوليد نصوص، إكمال جمل، إجراء محادثات ذكية، أو بناء تطبيقات تعتمد على الذكاء الاصطناعي على الكمبيوتر المحلي.
طريقة التثبيت: يتم تنزيل Mistral من خلال منصة Hugging Face باستخدام مكتبة transformers الخاصة بـ Chatgpt. يتطلب التثبيت وجود Python وأطر عمل مثل PyTorch، ويمكن تشغيله على CPU أو GPU حسب الإمكانيات المتوفرة.
ويمكن تخصيص النموذج بسهولة من خلال تحديد طول الاستجابة، درجة العشوائية (temperature)، وعدد الاحتمالات (top_k / top_p). كما يمكن دمج النموذج مع تطبيقات خارجية أو تعديل سلوكه حسب نوع البيانات المطلوبة.
وفي الختام، يسمح تثبيت الذكاء الاصطناعي على الكمبيوتر بتجاوز العديد من القيود القانونية والتشغيلة، والاستفادة بشكل أكبر من ميزاته العديدة. فتشغيل الذكاء الاصطناعي على الكمبيوتر لا يحتاج إلى اتصال بالإنترنت، ويسمح لنا بالاستفادة القصوى من خدمات الذكاء الاصطناعي على الكمبيوتر. وبالتالي تحقيق أقصى استفادة من هذه التكنولوجيا.
الصور مأخوذة من موقع: datacamp.com.