כיצד להתקין באופן מקומי דגמי AI ב- Mac (Chatgpt, Deepseek, Mistral, Llama וכו ')

כיצד להתקין באופן מקומי את הדגמים של IA Deepseek, Mistral, Chatgpt, Llama, Phi, Qwen, Gemma ולהשתמש בהם באופן מקומי ב- Mac Apple Silicon (M1, M2, M3, M4), Windows PC, PC Linux. לשם כך, עליך להוריד את LM Studio ואז לאפליקציה ואז להוריד את הדגם / ים לבחירתך. בסופו של דבר, תוכלו לדון עם חומרי השיחה השונים עם קו יתר עם צריכת חזותית על CPU ו- RAM בזמן אמת. בנוסף לקריאה:

  • : אפליקציית Openai הרשמית (טקסט + ווקאלי)

התקנה מקומית של דגמי AI ב- Mac: התקן את סטודיו LM

הורדסטודיו LMמהאתר הרשמי שלה עבור Mac M1, M2, M3, M4, Windows או Linux בהתאם לארכיטקטורה ובמערכת ההפעלה שלך. למידע, LM Studio מאפשר לך להוריד ולבצע דגמים של בינה מלאכותית כמו Mistral, Llama או Gemma, ללא צורך בחיבור לאינטרנט או לעבור שרתים מרוחקים. ההתקנה פשוטה ומגיעה לגרירה ושחרור לכיוון תיקיית היישומים.

השק את סטודיו LM וקח את הזמן לגלות את הממשק המפוכח במיוחד.

הורד כדי להתחיל את המודל של AI שהוצע. בדוגמה שלנו, זו ג'מה.

הורדת הדגם מתחילה. דגמים מסוימים דורשים אחסון של כ -4 ג'יגה -בייט, אחרים יותר מ -30 ג'יגה -בייט!

Sipple בפינה השמאלית התחתונה של המסך בחלון ההפתעה כדי לטעון את הדגם בזיכרון (דגם עומס).

אתה כבר יכול להתחיל דיון עם סוכן השיחה. זה עובד נפלא.

התקנה מקומית של דגמי AI ב- Mac: טעינת LLM אחרת

אתה יכול להתקין LLM ככל שתרצה. לשם כך, לחץ על זכוכית המגדלת הסגולה. ובחר להוריד את אלה שמתאימים לך ביותר. ניתן לבצע את הסיווג לפי קריטריונים שונים. הכי שהורדו, המדורג הגבוה ביותר, האחרון ביותר וכו '.

בדוגמה שלנו, נוסיף חיפוש עמוק.

מתחת לתוספת הסגולה, אנו מפלטים ג'מה באמצעות כפתור "פליטה".

לאחר מכן, אנו נטען במקום זאת DeepSeek (דגם עומס).

כעת אנו יכולים להשתמש בפוטנציאל DeepSeek ב- MacBook Air שלנו (M2)! הערה בפינה השמאלית התחתונה מעבד ה- CPU ו- RAM המוצג כמידע על פי הבקשה שהוזכרה ...