Microsoft เพิ่ม GPT-4 Turbo LLM ลงใน Copilot เวอร์ชันฟรี
ในปี 2023 Microsoft ได้เดิมพันอย่างหนักกับปัญญาประดิษฐ์และความร่วมมือกับ OpenAI เพื่อทำให้ Copilot กลายเป็นความจริง
ตอนนี้ LLM แบบควอนตัมพร้อมใช้งานแล้วบน HuggingFace และระบบนิเวศ AI เช่น H20, Text Gen และ GPT4All ช่วยให้คุณโหลด น้ำหนัก LLMลงในคอมพิวเตอร์ได้ ตอนนี้คุณมีตัวเลือกสำหรับ AI ที่ฟรี ยืดหยุ่น และปลอดภัย นี่คือหลักสูตร LLM ท้องถิ่น/ออฟไลน์ที่ดีที่สุด 9 หลักสูตรที่คุณสามารถลองเรียนได้ทันที!
สารบัญ

Hermes 2 Pro เป็นโมเดลภาษาขั้นสูงที่ได้รับการปรับปรุงโดย Nous Research โดยใช้ชุดข้อมูล OpenHermes 2.5 เวอร์ชันอัพเดตและปรับลดขนาดใหม่ พร้อมด้วยชุดข้อมูลการเรียกฟังก์ชันและ JSON ที่เพิ่งเปิดตัวใหม่ที่พัฒนาโดยบริษัทเอง โมเดลนี้ใช้สถาปัตยกรรม Mistral 7B และได้รับการฝึกด้วยคำสั่ง/การสนทนาคุณภาพ GPT-4 ขึ้นไป จำนวน 1,000,000 รายการ ซึ่งส่วนใหญ่เป็นข้อมูลสังเคราะห์
|
แบบอย่าง |
เฮอร์เมส 2 โปร GPTQ |
|---|---|
|
ขนาดโมเดล |
7.26 กิกะไบต์ |
|
พารามิเตอร์ |
7พันล้าน |
|
การหาปริมาณ |
4 บิต |
|
พิมพ์ |
มิสทรัล |
|
ใบอนุญาต |
อาปาเช่ 2.0 |
Hermes 2 Pro บน Mistral 7B คือรุ่นเรือธงใหม่ของ Hermes 7B ที่ให้ประสิทธิภาพที่ได้รับการปรับปรุงในเกณฑ์มาตรฐานต่างๆ รวมถึง AGIEval, BigBench Reasoning, GPT4All และ TruthfulQA ความสามารถขั้นสูงทำให้เหมาะกับงานการประมวลผลภาษาธรรมชาติ (NLP) มากมาย เช่น การสร้างรหัส การสร้างเนื้อหา และแอปพลิเคชัน AI เชิงสนทนา
Zephyr เป็นชุดโมเดลภาษาที่ได้รับการฝึกฝนให้ทำหน้าที่เป็นผู้ช่วยที่เป็นประโยชน์ Zephyr-7B-Beta เป็นโมเดลที่สองในซีรีส์ ซึ่งปรับปรุงมาจาก Mistral-7B-v0.1 โดยใช้ Direct Preference Optimization (DPO) บนชุดข้อมูลสังเคราะห์ที่มีให้ใช้งานสาธารณะแบบผสม
|
แบบอย่าง |
เซเฟอร์ 7บี เบต้า |
|---|---|
|
ขนาดโมเดล |
7.26 กิกะไบต์ |
|
พารามิเตอร์ |
7พันล้าน |
|
การหาปริมาณ |
4 บิต |
|
พิมพ์ |
มิสทรัล |
|
ใบอนุญาต |
อาปาเช่ 2.0 |
Zephyr-7B-Beta แสดงให้เห็นประสิทธิภาพที่ได้รับการปรับปรุงบนเกณฑ์มาตรฐาน เช่น MT-Bench โดยการกำจัดการจัดตำแหน่งชุดข้อมูลการฝึกอบรมในตัว ทำให้สามารถใช้งานได้หลากหลายมากขึ้น อย่างไรก็ตาม การปรับเปลี่ยนนี้สามารถนำไปสู่การสร้างข้อความที่มีปัญหาเมื่อได้รับการแจ้งเตือนในบางวิธี

Falcon เวอร์ชันควอนไทซ์นี้ใช้สถาปัตยกรรมตัวถอดรหัสเพียงอย่างเดียวที่ได้รับการปรับปรุงจากโมเดล Falcon-7b แบบดิบของ TII โมเดล Falcon พื้นฐานได้รับการฝึกด้วยโทเค็นที่โดดเด่นจำนวน 1.5 ล้านล้านรายการจากอินเทอร์เน็ตสาธารณะ เนื่องจากเป็นโมเดลตัวถอดรหัสตามคำสั่งที่ได้รับอนุญาตสิทธิ์ใช้งาน Apache 2 เท่านั้น Falcon Instruct จึงเหมาะอย่างยิ่งสำหรับธุรกิจขนาดเล็กที่กำลังมองหาโมเดลที่จะใช้ในการแปลภาษาและการนำเข้าข้อมูล
|
แบบอย่าง |
ฟอลคอน-7บี-อินสทรูเม้นต์ |
|---|---|
|
ขนาดโมเดล |
7.58 กิกะไบต์ |
|
พารามิเตอร์ |
7พันล้าน |
|
การหาปริมาณ |
4 บิต |
|
พิมพ์ |
เหยี่ยว |
|
ใบอนุญาต |
อาปาเช่ 2.0 |
อย่างไรก็ตาม Falcon เวอร์ชันนี้ไม่เหมาะสำหรับการปรับแต่งละเอียดและมีไว้ใช้เพื่ออนุมานเท่านั้น หากคุณต้องการปรับแต่ง Falcon คุณจะต้องใช้โมเดลแบบดิบ ซึ่งอาจต้องเข้าถึงฮาร์ดแวร์การฝึกอบรมระดับองค์กร เช่น NVIDIA DGX หรือ AMD Instinct AI Accelerators
GPT4All-J Groovy เป็นโมเดลตัวถอดรหัสเท่านั้นที่ปรับแต่งโดย Nomic AI และได้รับอนุญาตภายใต้ Apache 2.0 GPT4ALL-J Groovy มีพื้นฐานมาจากโมเดล GPT-J ดั้งเดิม ซึ่งรู้จักกันดีว่ามีประสิทธิภาพในการสร้างข้อความจากพรอมต์ GPT4ALL -J Groovy ได้รับการปรับแต่งให้เป็นโมเดลสนทนา ซึ่งยอดเยี่ยมสำหรับแอปพลิเคชันการสร้างข้อความที่รวดเร็วและสร้างสรรค์ ซึ่งทำให้ GPT4All-J Groovy เหมาะอย่างยิ่งสำหรับผู้สร้างคอนเทนต์ในการช่วยเขียนและเรียบเรียง ไม่ว่าจะเป็นบทกวี ดนตรี หรือเรื่องราวต่างๆ
|
แบบอย่าง |
GPT4ALL-J กรูวี่ |
|---|---|
|
ขนาดโมเดล |
3.53 กิกะไบต์ |
|
พารามิเตอร์ |
7พันล้าน |
|
การหาปริมาณ |
4 บิต |
|
พิมพ์ |
จีพีที-เจ |
|
ใบอนุญาต |
อาปาเช่ 2.0 |
น่าเสียดายที่โมเดล GPT-J พื้นฐานได้รับการฝึกอบรมบนชุดข้อมูลภาษาอังกฤษเท่านั้น ซึ่งหมายความว่าแม้แต่โมเดล GPT4ALL-J ที่ปรับแต่งละเอียดแล้วนี้ก็สามารถสนทนาและดำเนินการสร้างข้อความเป็นภาษาอังกฤษเท่านั้น

DeepSeek Coder V2 เป็นโมเดลภาษาขั้นสูงที่ช่วยเพิ่มประสิทธิภาพในการเขียนโปรแกรมและการใช้เหตุผลทางคณิตศาสตร์ DeepSeek Coder V2 รองรับภาษาการเขียนโปรแกรมหลายภาษาและให้ความยาวบริบทที่ขยายออกไป ทำให้เป็นเครื่องมืออเนกประสงค์สำหรับนักพัฒนา
|
แบบอย่าง |
คำสั่ง DeepSeek Coder V2 |
|---|---|
|
ขนาดโมเดล |
13กิกะไบต์ |
|
พารามิเตอร์ |
33 พันล้าน |
|
การหาปริมาณ |
4 บิต |
|
พิมพ์ |
ดีพซีค |
|
ใบอนุญาต |
อาปาเช่ 2.0 |
เมื่อเทียบกับรุ่นก่อนหน้า DeepSeek Coder V2 แสดงให้เห็นถึงการปรับปรุงที่สำคัญในงานที่เกี่ยวข้องกับโค้ด การให้เหตุผล และความสามารถทั่วไป ขยายการรองรับภาษาการเขียนโปรแกรมจาก 86 เป็น 338 และขยายความยาวบริบทจาก 16K เป็น 128K โทเค็น ในการประเมินประสิทธิภาพ พบว่ารุ่นต่างๆ เช่น GPT-4 Turbo, Claude 3 Opus และ Gemini 1.5 Pro มีประสิทธิภาพเหนือกว่ารุ่นอื่นๆ เช่น GPT-4 Turbo, Claude 3 Opus และ Gemini 1.5 Pro ในการประเมินประสิทธิภาพทางด้านการเข้ารหัสและคณิตศาสตร์

Mixtral-8x7B เป็นส่วนผสมของโมเดลผู้เชี่ยวชาญ (MoE) ที่พัฒนาโดย Mistral AI มีผู้เชี่ยวชาญ 8 คนต่อ MLP รวมเป็นพารามิเตอร์ 45 พันล้านรายการ อย่างไรก็ตาม มีผู้เชี่ยวชาญเพียง 2 คนเท่านั้นที่ได้รับการเปิดใช้งานต่อโทเค็นในระหว่างการอนุมาน ซึ่งทำให้มีประสิทธิภาพในการคำนวณ โดยมีความเร็วและต้นทุนที่เปรียบเทียบได้กับแบบจำลองพารามิเตอร์ 12 พันล้านตัว
|
แบบอย่าง |
มิกซ์ทรัล-8x7B |
|---|---|
|
ขนาดโมเดล |
12GB. |
|
พารามิเตอร์ |
45 พันล้าน (ผู้เชี่ยวชาญ 8 คน) |
|
การหาปริมาณ |
4 บิต |
|
พิมพ์ |
มิสทรัล กระทรวงศึกษาธิการ |
|
ใบอนุญาต |
อาปาเช่ 2.0 |
Mixtral รองรับความยาวบริบท 32,000 โทเค็นและเหนือกว่า Llama 2 ถึง 70 พันล้านในเกณฑ์มาตรฐานส่วนใหญ่ โดยตรงกันหรือเกินประสิทธิภาพของ GPT-3.5 สามารถใช้งานภาษาต่างๆ ได้อย่างคล่องแคล่ว รวมทั้งภาษาอังกฤษ ฝรั่งเศส เยอรมัน สเปน และอิตาลี ทำให้เป็นตัวเลือกที่หลากหลายสำหรับงาน NLP ที่หลากหลาย
Wizard-Vicuna GPTQ คือเวอร์ชันควอนตัมของ Wizard Vicuna ที่ใช้พื้นฐานของโมเดล LlaMA ไม่เหมือนกับ LLM ส่วนใหญ่ที่เผยแพร่สู่สาธารณะ Wizard-Vicuna เป็นโมเดลที่ไม่มีการเซ็นเซอร์โดยเอาความเกี่ยวข้องออกไป นั่นหมายความว่ารุ่นนี้ไม่มีมาตรฐานความปลอดภัยและจริยธรรมเท่ากับรุ่นอื่นๆ ส่วนใหญ่
|
แบบอย่าง |
Wizard-Vicuna-30B-Uncensored-GPTQ |
|---|---|
|
ขนาดโมเดล |
16.94GB. |
|
พารามิเตอร์ |
30พันล้าน |
|
การหาปริมาณ |
4 บิต |
|
พิมพ์ |
ลามา |
|
ใบอนุญาต |
จีพีแอล 3 |
แม้ว่ามันอาจก่อให้เกิดปัญหาสำหรับการควบคุมการจัดตำแหน่งของ AI แต่การมี LLM ที่ไม่มีการเซ็นเซอร์ก็ช่วยนำสิ่งที่ดีที่สุดออกมาในโมเดลด้วยการช่วยให้โมเดลสามารถตอบคำถามได้โดยไม่มีข้อจำกัดใดๆ นอกจากนี้ยังช่วยให้ผู้ใช้สามารถเพิ่มการจัดตำแหน่งแบบกำหนดเองเกี่ยวกับวิธีที่ AI ควรกระทำหรือตอบสนองตามคำแจ้งเตือนที่กำหนดให้

คุณกำลังมองหาการทดสอบโมเดลที่ได้รับการฝึกอบรมโดยใช้วิธีการเรียนรู้ที่ไม่ซ้ำใครหรือไม่ Orca Mini เป็นการนำเอกสารการวิจัย Orca ของ Microsoft มาใช้งานอย่างไม่เป็นทางการ โมเดลนี้ได้รับการฝึกอบรมโดยใช้แนวทางการเรียนรู้แบบครู-นักเรียน โดยชุดข้อมูลจะเต็มไปด้วยคำอธิบายแทนที่จะมีเพียงคำแนะนำและคำตอบเท่านั้น ในทางทฤษฎี สิ่งนี้ควรทำให้เด็กนักเรียนฉลาดขึ้น เพราะโมเดลนี้สามารถเข้าใจปัญหาได้แทนที่จะแค่ค้นหาคู่ข้อมูลอินพุตและเอาต์พุตตามที่หลักสูตร LLM ทั่วไปใช้

Llama 2คือภาคต่อของ Llama LLM ดั้งเดิม ซึ่งให้ประสิทธิภาพและความคล่องตัวที่ได้รับการปรับปรุง เวอร์ชัน GPTQ ของ 13B Chat ได้รับการปรับแต่งมาสำหรับแอปพลิเคชัน AI เชิงสนทนาที่ปรับให้เหมาะสมสำหรับบทสนทนาภาษาอังกฤษ
รุ่นบางรุ่นที่ระบุไว้ด้านบนมีหลายรุ่นในแง่ของรายละเอียดจำเพาะ โดยทั่วไปแล้วเวอร์ชันที่มีคุณสมบัติสูงกว่าจะให้ผลลัพธ์ที่ดีกว่า แต่ต้องใช้ฮาร์ดแวร์ที่มีประสิทธิภาพสูงกว่า ในขณะที่เวอร์ชันที่มีคุณสมบัติต่ำกว่าจะให้ผลลัพธ์ที่มีคุณภาพต่ำกว่า แต่สามารถทำงานบนฮาร์ดแวร์ระดับล่างได้ หากคุณไม่แน่ใจว่าพีซีของคุณสามารถรันรุ่นนี้ได้หรือไม่ ให้ลองใช้รุ่นที่มีคุณสมบัติต่ำกว่าก่อน จากนั้นดำเนินการต่อจนกว่าคุณจะรู้สึกว่าประสิทธิภาพที่ลดลงนั้นไม่สามารถยอมรับได้อีกต่อไป
ในปี 2023 Microsoft ได้เดิมพันอย่างหนักกับปัญญาประดิษฐ์และความร่วมมือกับ OpenAI เพื่อทำให้ Copilot กลายเป็นความจริง
Nvidia เพิ่งประกาศเปิดตัวโมเดลภาษาโอเพนซอร์สขนาดใหญ่ (LLM) ที่คาดว่าจะมีประสิทธิภาพทัดเทียมกับโมเดลกรรมสิทธิ์ชั้นนำจาก OpenAI, Anthropic, Meta และ Google
Foxconn บริษัทที่รู้จักกันดีในการผลิต iPhone และผลิตภัณฑ์ฮาร์ดแวร์อื่นๆ ของ Apple สร้างความประหลาดใจให้กับทุกคนด้วยการประกาศเปิดตัวโมเดลภาษาขนาดใหญ่รุ่นแรก (LLM) ที่เรียกว่า FoxBrain ซึ่งมีจุดประสงค์เพื่อใช้ในการปรับปรุงการผลิตและการจัดการห่วงโซ่อุปทาน
ติดปัญหาแท็บ Planner ใน Microsoft Teams ใช่ไหม? มาดูวิธีแก้ไขปัญหาทีละขั้นตอนสำหรับปัญหาทั่วไป เช่น การโหลดล้มเหลว ข้อผิดพลาดด้านสิทธิ์ และปัญหาการซิงค์ ทำให้แท็บ Planner ของคุณใช้งานได้อย่างราบรื่นใน Teams ได้แล้ววันนี้
กำลังประสบปัญหาเกี่ยวกับการโทรผ่านวิดีโอใน Microsoft Teams อยู่ใช่ไหม? ค้นพบวิธีแก้ไขปัญหาแบบทีละขั้นตอนที่ได้รับการพิสูจน์แล้ว สำหรับปัญหาเกี่ยวกับวิดีโอ ปัญหาเกี่ยวกับกล้อง และอื่นๆ อีกมากมาย กลับมาโทรได้อย่างราบรื่นในไม่กี่นาที!
เบื่อไหมกับปัญหาข้อผิดพลาดของ Microsoft ที่ทำให้ Microsoft Teams ของคุณล่ม? พบกับขั้นตอนการแก้ไขปัญหาข้อผิดพลาดของ Microsoft Teams ทีละขั้นตอน ตั้งแต่การล้างแคชไปจนถึงวิธีแก้ไขขั้นสูง กลับมาทำงานร่วมกันได้อย่างราบรื่นอีกครั้งในวันนี้!
ติดปัญหาการเข้าสู่ระบบ Microsoft Teams บน Chromebook ใช่ไหม? คู่มือการแก้ไขปัญหาฉบับสมบูรณ์ของเราจะช่วยคุณแก้ไขปัญหาได้อย่างรวดเร็วและเชื่อถือได้ ไม่ว่าจะเป็นปัญหาเกี่ยวกับแคช การอัปเดต และอื่นๆ แก้ปัญหาได้ภายในไม่กี่นาทีและเชื่อมต่อได้อย่างต่อเนื่อง!
เบื่อกับข้อผิดพลาดในการดาวน์โหลด Microsoft Teams สำหรับพีซีที่ขัดขวางการทำงานของคุณใช่ไหม? ทำตามคำแนะนำทีละขั้นตอนที่ได้รับการพิสูจน์แล้วของเราเพื่อแก้ไขปัญหาอย่างรวดเร็วและทำให้ Teams ทำงานได้อย่างราบรื่นบนพีซีของคุณในวันนี้
กำลังประสบปัญหาภาพกระตุกขณะใช้งาน Microsoft Teams ผ่าน Wi-Fi อยู่ใช่ไหม? คู่มือแก้ไขปัญหาฉบับสมบูรณ์นี้จะนำเสนอวิธีแก้ไขปัญหาอย่างรวดเร็ว เคล็ดลับขั้นสูง และการปรับแต่ง Wi-Fi เพื่อให้การสนทนาทางวิดีโอของคุณกลับมาคมชัดอีกครั้งในทันที
รู้สึกหงุดหงิดกับการวนลูปของหน้าจอต้อนรับใน Microsoft Teams ใช่ไหม? ลองทำตามขั้นตอนการแก้ไขปัญหาการวนลูปของหน้าจอต้อนรับใน Microsoft Teams ที่เราแนะนำ: ล้างแคช รีเซ็ตแอป และติดตั้งใหม่ กลับมาใช้งานร่วมกันได้อย่างราบรื่นภายในไม่กี่นาที!
รู้สึกหงุดหงิดกับสถานะ "ไม่อยู่" ใน Microsoft Teams ที่ค้างอยู่ใช่ไหม? พบกับสาเหตุหลักๆ เช่น การหมดเวลาการใช้งาน และการตั้งค่าพลังงาน พร้อมวิธีแก้ไขทีละขั้นตอนเพื่อให้กลับมาเป็น "พร้อมใช้งาน" ได้อย่างรวดเร็ว อัปเดตด้วยฟีเจอร์ Teams ล่าสุดแล้ว
รู้สึกหงุดหงิดเพราะปลั๊กอิน Microsoft Teams หายไปจาก Outlook ใช่ไหม? มาดูสาเหตุหลักและวิธีแก้ไขง่ายๆ ทีละขั้นตอน เพื่อให้การใช้งาน Teams และ Outlook กลับมาราบรื่นอีกครั้งโดยไม่ต้องยุ่งยาก ใช้งานได้กับเวอร์ชันล่าสุด!
เบื่อกับปัญหาการเล่นสื่อใน Microsoft Teams ที่ทำให้การประชุมปี 2026 ของคุณเสียบรรยากาศใช่ไหม? ทำตามคำแนะนำทีละขั้นตอนจากผู้เชี่ยวชาญของเราเพื่อแก้ไขปัญหาเสียง วิดีโอ และการแชร์ได้อย่างรวดเร็ว โดยไม่ต้องมีความรู้ด้านเทคนิคใดๆ การทำงานร่วมกันอย่างราบรื่นรอคุณอยู่!
รู้สึกหงุดหงิดกับ Microsoft Teams ที่ทำงานช้าใช่ไหม? ค้นพบสาเหตุที่ Microsoft Teams ทำงานช้า และลองใช้ 10 เคล็ดลับที่ได้รับการพิสูจน์แล้วเหล่านี้เพื่อเพิ่มความเร็วอย่างเห็นได้ชัดในปี 2026 เพื่อการทำงานร่วมกันที่ราบรื่นยิ่งขึ้น
หงุดหงิดกับคำถาม "ปฏิทิน Teams ของฉันอยู่ที่ไหน?" มาแก้ไขปัญหาการซิงค์ใน Microsoft Teams ทีละขั้นตอนกัน กู้คืนมุมมองปฏิทินของคุณและซิงค์ได้อย่างง่ายดาย—เคล็ดลับจากผู้เชี่ยวชาญอยู่ด้านใน!
พบปัญหาข้อผิดพลาดของ Microsoft Teams ในวันนี้ใช่ไหม? คู่มือการแก้ไขปัญหา Microsoft Teams แบบทีละขั้นตอนฉบับนี้จะเปิดเผยวิธีตรวจสอบเบื้องต้นเพื่อแก้ไขปัญหาได้อย่างรวดเร็ว วิธีแก้ไขด่วนสำหรับปัญหาการเชื่อมต่อ แคช และการอัปเดต จะช่วยให้คุณกลับมาแชทได้อย่างราบรื่น
กำลังประสบปัญหาข้อผิดพลาดเกี่ยวกับพร็อกซีใน Microsoft Teams อยู่ใช่ไหม? ค้นพบขั้นตอนการแก้ไขปัญหาข้อผิดพลาดเกี่ยวกับพร็อกซีใน Microsoft Teams ที่ได้รับการพิสูจน์แล้ว ล้างแคช ปรับการตั้งค่าพร็อกซี และกลับมาใช้งานการโทรได้อย่างราบรื่นภายในไม่กี่นาทีด้วยคู่มือจากผู้เชี่ยวชาญของเรา
เรียนรู้วิธีตั้งสถานะ "ไม่อยู่ที่ทำงาน" ใน Microsoft Teams ด้วยขั้นตอนง่ายๆ สำหรับเดสก์ท็อป มือถือ และการซิงค์กับ Outlook รักษาความเป็นมืออาชีพแม้ในขณะอยู่นอกสถานที่ – ตั้งค่าได้อย่างรวดเร็วในไม่กี่นาที!