Microsoft เพิ่ม GPT-4 Turbo LLM ลงใน Copilot เวอร์ชันฟรี
ในปี 2023 Microsoft ได้เดิมพันอย่างหนักกับปัญญาประดิษฐ์และความร่วมมือกับ OpenAI เพื่อทำให้ Copilot กลายเป็นความจริง
ตอนนี้ LLM แบบควอนตัมพร้อมใช้งานแล้วบน HuggingFace และระบบนิเวศ AI เช่น H20, Text Gen และ GPT4All ช่วยให้คุณโหลด น้ำหนัก LLMลงในคอมพิวเตอร์ได้ ตอนนี้คุณมีตัวเลือกสำหรับ AI ที่ฟรี ยืดหยุ่น และปลอดภัย นี่คือหลักสูตร LLM ท้องถิ่น/ออฟไลน์ที่ดีที่สุด 9 หลักสูตรที่คุณสามารถลองเรียนได้ทันที!
สารบัญ
Hermes 2 Pro เป็นโมเดลภาษาขั้นสูงที่ได้รับการปรับปรุงโดย Nous Research โดยใช้ชุดข้อมูล OpenHermes 2.5 เวอร์ชันอัพเดตและปรับลดขนาดใหม่ พร้อมด้วยชุดข้อมูลการเรียกฟังก์ชันและ JSON ที่เพิ่งเปิดตัวใหม่ที่พัฒนาโดยบริษัทเอง โมเดลนี้ใช้สถาปัตยกรรม Mistral 7B และได้รับการฝึกด้วยคำสั่ง/การสนทนาคุณภาพ GPT-4 ขึ้นไป จำนวน 1,000,000 รายการ ซึ่งส่วนใหญ่เป็นข้อมูลสังเคราะห์
แบบอย่าง |
เฮอร์เมส 2 โปร GPTQ |
---|---|
ขนาดโมเดล |
7.26 กิกะไบต์ |
พารามิเตอร์ |
7พันล้าน |
การหาปริมาณ |
4 บิต |
พิมพ์ |
มิสทรัล |
ใบอนุญาต |
อาปาเช่ 2.0 |
Hermes 2 Pro บน Mistral 7B คือรุ่นเรือธงใหม่ของ Hermes 7B ที่ให้ประสิทธิภาพที่ได้รับการปรับปรุงในเกณฑ์มาตรฐานต่างๆ รวมถึง AGIEval, BigBench Reasoning, GPT4All และ TruthfulQA ความสามารถขั้นสูงทำให้เหมาะกับงานการประมวลผลภาษาธรรมชาติ (NLP) มากมาย เช่น การสร้างรหัส การสร้างเนื้อหา และแอปพลิเคชัน AI เชิงสนทนา
Zephyr เป็นชุดโมเดลภาษาที่ได้รับการฝึกฝนให้ทำหน้าที่เป็นผู้ช่วยที่เป็นประโยชน์ Zephyr-7B-Beta เป็นโมเดลที่สองในซีรีส์ ซึ่งปรับปรุงมาจาก Mistral-7B-v0.1 โดยใช้ Direct Preference Optimization (DPO) บนชุดข้อมูลสังเคราะห์ที่มีให้ใช้งานสาธารณะแบบผสม
แบบอย่าง |
เซเฟอร์ 7บี เบต้า |
---|---|
ขนาดโมเดล |
7.26 กิกะไบต์ |
พารามิเตอร์ |
7พันล้าน |
การหาปริมาณ |
4 บิต |
พิมพ์ |
มิสทรัล |
ใบอนุญาต |
อาปาเช่ 2.0 |
Zephyr-7B-Beta แสดงให้เห็นประสิทธิภาพที่ได้รับการปรับปรุงบนเกณฑ์มาตรฐาน เช่น MT-Bench โดยการกำจัดการจัดตำแหน่งชุดข้อมูลการฝึกอบรมในตัว ทำให้สามารถใช้งานได้หลากหลายมากขึ้น อย่างไรก็ตาม การปรับเปลี่ยนนี้สามารถนำไปสู่การสร้างข้อความที่มีปัญหาเมื่อได้รับการแจ้งเตือนในบางวิธี
Falcon เวอร์ชันควอนไทซ์นี้ใช้สถาปัตยกรรมตัวถอดรหัสเพียงอย่างเดียวที่ได้รับการปรับปรุงจากโมเดล Falcon-7b แบบดิบของ TII โมเดล Falcon พื้นฐานได้รับการฝึกด้วยโทเค็นที่โดดเด่นจำนวน 1.5 ล้านล้านรายการจากอินเทอร์เน็ตสาธารณะ เนื่องจากเป็นโมเดลตัวถอดรหัสตามคำสั่งที่ได้รับอนุญาตสิทธิ์ใช้งาน Apache 2 เท่านั้น Falcon Instruct จึงเหมาะอย่างยิ่งสำหรับธุรกิจขนาดเล็กที่กำลังมองหาโมเดลที่จะใช้ในการแปลภาษาและการนำเข้าข้อมูล
แบบอย่าง |
ฟอลคอน-7บี-อินสทรูเม้นต์ |
---|---|
ขนาดโมเดล |
7.58 กิกะไบต์ |
พารามิเตอร์ |
7พันล้าน |
การหาปริมาณ |
4 บิต |
พิมพ์ |
เหยี่ยว |
ใบอนุญาต |
อาปาเช่ 2.0 |
อย่างไรก็ตาม Falcon เวอร์ชันนี้ไม่เหมาะสำหรับการปรับแต่งละเอียดและมีไว้ใช้เพื่ออนุมานเท่านั้น หากคุณต้องการปรับแต่ง Falcon คุณจะต้องใช้โมเดลแบบดิบ ซึ่งอาจต้องเข้าถึงฮาร์ดแวร์การฝึกอบรมระดับองค์กร เช่น NVIDIA DGX หรือ AMD Instinct AI Accelerators
GPT4All-J Groovy เป็นโมเดลตัวถอดรหัสเท่านั้นที่ปรับแต่งโดย Nomic AI และได้รับอนุญาตภายใต้ Apache 2.0 GPT4ALL-J Groovy มีพื้นฐานมาจากโมเดล GPT-J ดั้งเดิม ซึ่งรู้จักกันดีว่ามีประสิทธิภาพในการสร้างข้อความจากพรอมต์ GPT4ALL -J Groovy ได้รับการปรับแต่งให้เป็นโมเดลสนทนา ซึ่งยอดเยี่ยมสำหรับแอปพลิเคชันการสร้างข้อความที่รวดเร็วและสร้างสรรค์ ซึ่งทำให้ GPT4All-J Groovy เหมาะอย่างยิ่งสำหรับผู้สร้างคอนเทนต์ในการช่วยเขียนและเรียบเรียง ไม่ว่าจะเป็นบทกวี ดนตรี หรือเรื่องราวต่างๆ
แบบอย่าง |
GPT4ALL-J กรูวี่ |
---|---|
ขนาดโมเดล |
3.53 กิกะไบต์ |
พารามิเตอร์ |
7พันล้าน |
การหาปริมาณ |
4 บิต |
พิมพ์ |
จีพีที-เจ |
ใบอนุญาต |
อาปาเช่ 2.0 |
น่าเสียดายที่โมเดล GPT-J พื้นฐานได้รับการฝึกอบรมบนชุดข้อมูลภาษาอังกฤษเท่านั้น ซึ่งหมายความว่าแม้แต่โมเดล GPT4ALL-J ที่ปรับแต่งละเอียดแล้วนี้ก็สามารถสนทนาและดำเนินการสร้างข้อความเป็นภาษาอังกฤษเท่านั้น
DeepSeek Coder V2 เป็นโมเดลภาษาขั้นสูงที่ช่วยเพิ่มประสิทธิภาพในการเขียนโปรแกรมและการใช้เหตุผลทางคณิตศาสตร์ DeepSeek Coder V2 รองรับภาษาการเขียนโปรแกรมหลายภาษาและให้ความยาวบริบทที่ขยายออกไป ทำให้เป็นเครื่องมืออเนกประสงค์สำหรับนักพัฒนา
แบบอย่าง |
คำสั่ง DeepSeek Coder V2 |
---|---|
ขนาดโมเดล |
13กิกะไบต์ |
พารามิเตอร์ |
33 พันล้าน |
การหาปริมาณ |
4 บิต |
พิมพ์ |
ดีพซีค |
ใบอนุญาต |
อาปาเช่ 2.0 |
เมื่อเทียบกับรุ่นก่อนหน้า DeepSeek Coder V2 แสดงให้เห็นถึงการปรับปรุงที่สำคัญในงานที่เกี่ยวข้องกับโค้ด การให้เหตุผล และความสามารถทั่วไป ขยายการรองรับภาษาการเขียนโปรแกรมจาก 86 เป็น 338 และขยายความยาวบริบทจาก 16K เป็น 128K โทเค็น ในการประเมินประสิทธิภาพ พบว่ารุ่นต่างๆ เช่น GPT-4 Turbo, Claude 3 Opus และ Gemini 1.5 Pro มีประสิทธิภาพเหนือกว่ารุ่นอื่นๆ เช่น GPT-4 Turbo, Claude 3 Opus และ Gemini 1.5 Pro ในการประเมินประสิทธิภาพทางด้านการเข้ารหัสและคณิตศาสตร์
Mixtral-8x7B เป็นส่วนผสมของโมเดลผู้เชี่ยวชาญ (MoE) ที่พัฒนาโดย Mistral AI มีผู้เชี่ยวชาญ 8 คนต่อ MLP รวมเป็นพารามิเตอร์ 45 พันล้านรายการ อย่างไรก็ตาม มีผู้เชี่ยวชาญเพียง 2 คนเท่านั้นที่ได้รับการเปิดใช้งานต่อโทเค็นในระหว่างการอนุมาน ซึ่งทำให้มีประสิทธิภาพในการคำนวณ โดยมีความเร็วและต้นทุนที่เปรียบเทียบได้กับแบบจำลองพารามิเตอร์ 12 พันล้านตัว
แบบอย่าง |
มิกซ์ทรัล-8x7B |
---|---|
ขนาดโมเดล |
12GB. |
พารามิเตอร์ |
45 พันล้าน (ผู้เชี่ยวชาญ 8 คน) |
การหาปริมาณ |
4 บิต |
พิมพ์ |
มิสทรัล กระทรวงศึกษาธิการ |
ใบอนุญาต |
อาปาเช่ 2.0 |
Mixtral รองรับความยาวบริบท 32,000 โทเค็นและเหนือกว่า Llama 2 ถึง 70 พันล้านในเกณฑ์มาตรฐานส่วนใหญ่ โดยตรงกันหรือเกินประสิทธิภาพของ GPT-3.5 สามารถใช้งานภาษาต่างๆ ได้อย่างคล่องแคล่ว รวมทั้งภาษาอังกฤษ ฝรั่งเศส เยอรมัน สเปน และอิตาลี ทำให้เป็นตัวเลือกที่หลากหลายสำหรับงาน NLP ที่หลากหลาย
Wizard-Vicuna GPTQ คือเวอร์ชันควอนตัมของ Wizard Vicuna ที่ใช้พื้นฐานของโมเดล LlaMA ไม่เหมือนกับ LLM ส่วนใหญ่ที่เผยแพร่สู่สาธารณะ Wizard-Vicuna เป็นโมเดลที่ไม่มีการเซ็นเซอร์โดยเอาความเกี่ยวข้องออกไป นั่นหมายความว่ารุ่นนี้ไม่มีมาตรฐานความปลอดภัยและจริยธรรมเท่ากับรุ่นอื่นๆ ส่วนใหญ่
แบบอย่าง |
Wizard-Vicuna-30B-Uncensored-GPTQ |
---|---|
ขนาดโมเดล |
16.94GB. |
พารามิเตอร์ |
30พันล้าน |
การหาปริมาณ |
4 บิต |
พิมพ์ |
ลามา |
ใบอนุญาต |
จีพีแอล 3 |
แม้ว่ามันอาจก่อให้เกิดปัญหาสำหรับการควบคุมการจัดตำแหน่งของ AI แต่การมี LLM ที่ไม่มีการเซ็นเซอร์ก็ช่วยนำสิ่งที่ดีที่สุดออกมาในโมเดลด้วยการช่วยให้โมเดลสามารถตอบคำถามได้โดยไม่มีข้อจำกัดใดๆ นอกจากนี้ยังช่วยให้ผู้ใช้สามารถเพิ่มการจัดตำแหน่งแบบกำหนดเองเกี่ยวกับวิธีที่ AI ควรกระทำหรือตอบสนองตามคำแจ้งเตือนที่กำหนดให้
คุณกำลังมองหาการทดสอบโมเดลที่ได้รับการฝึกอบรมโดยใช้วิธีการเรียนรู้ที่ไม่ซ้ำใครหรือไม่ Orca Mini เป็นการนำเอกสารการวิจัย Orca ของ Microsoft มาใช้งานอย่างไม่เป็นทางการ โมเดลนี้ได้รับการฝึกอบรมโดยใช้แนวทางการเรียนรู้แบบครู-นักเรียน โดยชุดข้อมูลจะเต็มไปด้วยคำอธิบายแทนที่จะมีเพียงคำแนะนำและคำตอบเท่านั้น ในทางทฤษฎี สิ่งนี้ควรทำให้เด็กนักเรียนฉลาดขึ้น เพราะโมเดลนี้สามารถเข้าใจปัญหาได้แทนที่จะแค่ค้นหาคู่ข้อมูลอินพุตและเอาต์พุตตามที่หลักสูตร LLM ทั่วไปใช้
Llama 2คือภาคต่อของ Llama LLM ดั้งเดิม ซึ่งให้ประสิทธิภาพและความคล่องตัวที่ได้รับการปรับปรุง เวอร์ชัน GPTQ ของ 13B Chat ได้รับการปรับแต่งมาสำหรับแอปพลิเคชัน AI เชิงสนทนาที่ปรับให้เหมาะสมสำหรับบทสนทนาภาษาอังกฤษ
รุ่นบางรุ่นที่ระบุไว้ด้านบนมีหลายรุ่นในแง่ของรายละเอียดจำเพาะ โดยทั่วไปแล้วเวอร์ชันที่มีคุณสมบัติสูงกว่าจะให้ผลลัพธ์ที่ดีกว่า แต่ต้องใช้ฮาร์ดแวร์ที่มีประสิทธิภาพสูงกว่า ในขณะที่เวอร์ชันที่มีคุณสมบัติต่ำกว่าจะให้ผลลัพธ์ที่มีคุณภาพต่ำกว่า แต่สามารถทำงานบนฮาร์ดแวร์ระดับล่างได้ หากคุณไม่แน่ใจว่าพีซีของคุณสามารถรันรุ่นนี้ได้หรือไม่ ให้ลองใช้รุ่นที่มีคุณสมบัติต่ำกว่าก่อน จากนั้นดำเนินการต่อจนกว่าคุณจะรู้สึกว่าประสิทธิภาพที่ลดลงนั้นไม่สามารถยอมรับได้อีกต่อไป
ในปี 2023 Microsoft ได้เดิมพันอย่างหนักกับปัญญาประดิษฐ์และความร่วมมือกับ OpenAI เพื่อทำให้ Copilot กลายเป็นความจริง
Nvidia เพิ่งประกาศเปิดตัวโมเดลภาษาโอเพนซอร์สขนาดใหญ่ (LLM) ที่คาดว่าจะมีประสิทธิภาพทัดเทียมกับโมเดลกรรมสิทธิ์ชั้นนำจาก OpenAI, Anthropic, Meta และ Google
Foxconn บริษัทที่รู้จักกันดีในการผลิต iPhone และผลิตภัณฑ์ฮาร์ดแวร์อื่นๆ ของ Apple สร้างความประหลาดใจให้กับทุกคนด้วยการประกาศเปิดตัวโมเดลภาษาขนาดใหญ่รุ่นแรก (LLM) ที่เรียกว่า FoxBrain ซึ่งมีจุดประสงค์เพื่อใช้ในการปรับปรุงการผลิตและการจัดการห่วงโซ่อุปทาน
เมื่อวันที่ 3 มกราคม SpaceX ของอีลอน มัสก์ได้ปล่อยดาวเทียมชุดแรกจำนวน 6 ดวงซึ่งสามารถให้บริการเคลื่อนที่ไปยังพื้นที่ห่างไกลได้โดยไม่ต้องใช้เทอร์มินัล
การ์ดจอเรือธงรุ่นถัดไปของ NVIDIA อย่าง GeForce RTX 5060 Ti จะมีเวอร์ชันความจุ 16GB และ 8GB และคาดว่าจะเปิดตัวในกลางเดือนเมษายน
ผู้เชี่ยวชาญด้านความปลอดภัยจาก Palo Alto Networks ค้นพบแคมเปญโจมตีใหม่ที่แพร่กระจายมัลแวร์ผ่านผลการค้นหาของ Google
Google กำลังเพิ่มฟีเจอร์ใหม่เล็กๆ น้อยๆ ที่รอคอยกันมายาวนานลงใน Play Store
หลังจากที่ Tim Cook เข้ามาดำรงตำแหน่ง CEO ในปี 2011 เพื่อพยายามรักษาความไว้วางใจของสาธารณชนที่มีต่อ Apple เขาก็ได้รักษาพนักงานระดับสูงไว้โดยจ่ายเงินให้พวกเขาโดยไม่ต้องบังคับให้พวกเขาทำงาน
Dead Pool เป็นหนึ่งในพื้นที่ที่มีธีมเกี่ยวกับ Mortal Kombat ที่ถูกเพิ่มเข้ามาใน Fortnite หลังจากอัปเดตเวอร์ชัน v34.21
คุณควรใช้โทรศัพท์ในช่วงที่มีฟ้าร้องฟ้าผ่าหรือไม่? สัญญาณโทรศัพท์มือถือถูกฟ้าผ่าได้ไหม? โทรศัพท์อยู่ในโหมดเครื่องบินแต่ยังคงใช้ wifi จะดึงดูดสายฟ้าหรือไม่?
งานวิจัยใหม่โดยทีมนักวิจัยจากออสเตรเลียและจีนแสดงให้เห็นว่าฝนครั้งแรกปรากฏบนโลกเมื่อประมาณ 4 พันล้านปีที่แล้ว เร็วกว่าที่เคยคาดไว้ถึง 500 ล้านปี
วัตถุนี้ตั้งอยู่ในพื้นที่เชอร์โนบิล ประเทศยูเครน อันเป็นผลจากการรั่วไหลของสารกัมมันตรังสีที่เลวร้ายที่สุดครั้งหนึ่งในประวัติศาสตร์ วัตถุนี้มีรูปร่างเหมือนเท้ายักษ์ จึงเรียกว่า เท้าช้าง
รหัสเกม Chu Cong Xung Xung Xung ช่วยให้ผู้เล่นได้รับการสนับสนุนเมื่อเข้าเกมครั้งแรก รางวัลเหล่านี้จะช่วยให้คุณคุ้นเคยกับเกมได้เร็วขึ้นและจะดึงดูดผู้เล่นใหม่ๆ อย่างแน่นอน กรอกรหัสเกม Chu Cong Xung Xung Xung ด้านล่างเพื่อรับของขวัญ
ตอนนี้ LLM แบบควอนตัมพร้อมใช้งานแล้วบน HuggingFace และระบบนิเวศ AI เช่น H20, Text Gen และ GPT4All ช่วยให้คุณโหลดน้ำหนัก LLM ลงในคอมพิวเตอร์ได้ ตอนนี้คุณมีตัวเลือกสำหรับ AI ที่ฟรี ยืดหยุ่น และปลอดภัย
เครื่องบันทึกเสียงเริ่มต้นบนโทรศัพท์ Android มีข้อบกพร่อง ขาดคุณสมบัติที่จำเป็น เช่น การตัดเสียงรบกวนที่มีประสิทธิภาพและเครื่องมือแก้ไขที่ทรงพลัง
การตั้งค่าระดับเสียงเริ่มต้นสำหรับแต่ละแอปพลิเคชันนั้นมีประโยชน์ในบางกรณี เช่น คุณกำลังดูวิดีโอโดยใช้แอปพลิเคชัน YouTube และต้องการลดระดับเสียงเสียงเรียกเข้าและเสียงข้อความเพื่อไม่ให้ถูกรบกวน
สีเล็บกลิตเตอร์สีชมพูและสีแดงเหมาะกับเล็บวันวาเลนไทน์เป็นพิเศษ อะไรจะดีไปกว่านี้อีก? บทความนี้จะสรุปแบบเล็บสวยๆ สำหรับเดทหวานๆ ในวันวาเลนไทน์มาฝากคุณ
ด้านล่างนี้เป็นสถานะเกี่ยวกับการเปลี่ยนแปลงตัวเองและคำบรรยายเกี่ยวกับการเปลี่ยนแปลงตัวเองที่จะช่วยให้คุณมีแรงจูงใจมากขึ้นในการปรับตัวเข้ากับการเปลี่ยนแปลงของชีวิต