GPU ในตัว - ทุกอย่างเกี่ยวกับการเสียบและถอดปลั๊ก วิธีตรวจสอบการใช้งาน GPU ในตัวจัดการงานของ Windows วิธีตรวจสอบว่ารองรับประสิทธิภาพ GPU ดูหรือไม่

ในปี 2559 หวังว่าจะมีการเปลี่ยนแปลง GPU รุ่นเต็มรูปแบบซึ่งก่อนหน้านี้ถูกขัดขวางเนื่องจากการขาดความสามารถในการผลิตที่จำเป็นในการเปิดตัวชิปที่มีมากขึ้นอย่างมีนัยสำคัญ ความหนาแน่นสูงทรานซิสเตอร์และความถี่นาฬิกาซึ่งช่วยให้เทคโนโลยีการผลิต 28 นาโนเมตรได้รับการพิสูจน์แล้ว เทคโนโลยี 20 นาโนเมตรที่เราหวังไว้เมื่อสองปีที่แล้วได้พิสูจน์แล้วว่าไม่สามารถใช้งานได้ในเชิงพาณิชย์สำหรับชิปที่มีขนาดใหญ่เท่ากับ GPU แยก เนื่องจาก TSMC และ Samsung ซึ่งสามารถทำหน้าที่เป็นผู้รับเหมาสำหรับ AMD และ NVIDIA ไม่ได้ใช้ FinFET ที่ 20 nm ประสิทธิภาพต่อวัตต์ที่เพิ่มขึ้นที่อาจเกิดขึ้นเมื่อเทียบกับ 28 nm จึงทำให้ทั้งสองบริษัทเลือกที่จะรอการยอมรับจำนวนมากที่ 14/16- มาตรฐาน nm.nm ใช้ FinFET อยู่แล้ว

อย่างไรก็ตาม หลายปีแห่งการรอคอยอย่างกระวนกระวายใจได้ผ่านไปแล้ว และตอนนี้เราสามารถประเมินได้ว่าผู้ผลิต GPU ใช้ความสามารถของกระบวนการทางเทคนิคที่อัปเดตได้อย่างไร ตามที่แสดงให้เห็นในทางปฏิบัติอีกครั้ง "นาโนเมตร" เพียงอย่างเดียวไม่รับประกันประสิทธิภาพการใช้พลังงานสูงของชิป ดังนั้นสถาปัตยกรรมใหม่ของ NVIDIA และ AMD จึงแตกต่างกันมากในพารามิเตอร์นี้ และมีการเพิ่มความน่าสนใจเพิ่มเติมด้วยข้อเท็จจริงที่ว่าบริษัทต่างๆ ไม่ได้ใช้บริการของโรงงานแห่งเดียว (TSMC) อีกต่อไป ดังเช่นในปีที่ผ่านมา AMD เลือก GlobalFoundries เพื่อผลิต Polaris GPU ที่ใช้เทคโนโลยี 14 nm FinFET ในทางกลับกัน NVIDIA ยังคงร่วมมือกับ TSMC ซึ่งมีกระบวนการ 16nm FinFET บนชิป Pascal ทั้งหมด ยกเว้น GP107 ระดับล่าง (ซึ่งผลิตโดย Samsung) มันเป็นกลุ่มผลิตภัณฑ์ FinFET ขนาด 14 นาโนเมตรของ Samsung ซึ่งครั้งหนึ่งเคยได้รับอนุญาตจาก GlobalFoundries ดังนั้น GP107 และคู่แข่งอย่าง Polaris 11 จึงมอบโอกาสที่สะดวกในการเปรียบเทียบความสำเร็จทางวิศวกรรมของ AMD และ NVIDIA บนฐานการผลิตที่คล้ายคลึงกัน

อย่างไรก็ตาม เราจะไม่เจาะลึกรายละเอียดทางเทคนิคก่อนเวลาอันควร โดยทั่วไปข้อเสนอของทั้งสองบริษัทที่ใช้ GPU รุ่นใหม่จะมีลักษณะเช่นนี้ NVIDIA ได้สร้าง Pascal accelerators เต็มรูปแบบโดยใช้ GPU ระดับผู้บริโภคสามตัว ได้แก่ GP107, GP106 และ GP104 อย่างไรก็ตามสถานที่ของอะแดปเตอร์เรือธงซึ่งจะได้รับชื่ออย่างแน่นอน GeForce GTX 1080 Ti ปัจจุบันว่าง ผู้สมัครในตำแหน่งนี้คือการ์ดที่มีโปรเซสเซอร์ GP102 ซึ่งจนถึงขณะนี้ใช้เฉพาะในตัวเร่งความเร็ว "มือโปร" เท่านั้น NVIDIA TITAN X และสุดท้ายความภาคภูมิใจหลักของ NVIDIA ก็คือชิป GP100 ซึ่ง บริษัท เห็นได้ชัดว่าไม่ใช่ แม้กระทั่งการแนะนำผลิตภัณฑ์เกมและทิ้งไว้ให้กับเครื่องเร่งความเร็วคอมพิวเตอร์ของ Tesla

ความสำเร็จของ AMD นั้นค่อนข้างเจียมเนื้อเจียมตัวมากขึ้น มีการเปิดตัวโปรเซสเซอร์สองตัวของตระกูล Polaris ซึ่งเป็นผลิตภัณฑ์ที่อยู่ในหมวดหมู่ล่างและกลางของการ์ดวิดีโอเกม ระดับบนจะถูกครอบครองโดยตระกูล Vega ของ GPU ที่กำลังจะมาถึง ซึ่งคาดว่าจะมีสถาปัตยกรรม GCN ที่ได้รับการอัพเกรดอย่างครอบคลุม (ในขณะที่ Polaris ก็ไม่แตกต่างจากชิป 28nm Fiji และ Tonga ในเรื่องนี้)

NVIDIA Tesla P100 และ TITAN X ใหม่

ด้วยความพยายามของ Jensen Huang หัวหน้าถาวรของ NVIDIA บริษัทจึงวางตำแหน่งตัวเองในฐานะผู้ผลิตแล้ว โปรเซสเซอร์คอมพิวเตอร์วัตถุประสงค์ทั่วไปไม่น้อยไปกว่าผู้ผลิต GPU สำหรับเล่นเกม สัญญาณที่บ่งบอกว่า NVIDIA กำลังดำเนินธุรกิจซูเปอร์คอมพิวเตอร์อย่างจริงจังมากขึ้นกว่าเดิมด้วยการแบ่งกลุ่มผลิตภัณฑ์ GPU ของ Pascal ไปสู่การเล่นเกม ในด้านหนึ่ง และในด้านการประมวลผล

เมื่อกระบวนการ 16nm FinFET เปิดตัวที่ TSMC ทาง NVIDIA ได้ใช้ความพยายามครั้งแรกในการเปิดตัวชิปซูเปอร์คอมพิวเตอร์ GP100 ซึ่งเปิดตัวก่อนกลุ่มผลิตภัณฑ์ผู้บริโภค Pascal

คุณสมบัติที่โดดเด่นของ GP100 คือจำนวนทรานซิสเตอร์ที่ไม่เคยมีมาก่อน (15.3 พันล้าน) และเชเดอร์ ALU (แกน 3840 CUDA) นอกจากนี้ นี่เป็นตัวเร่งความเร็วตัวแรกที่มาพร้อมกับหน่วยความจำ HBM2 (16 GB) รวมกับ GPU บนพื้นผิวซิลิกอน GP100 ใช้เป็นส่วนหนึ่งของเครื่องเร่งความเร็ว Tesla P100 ซึ่งในตอนแรกถูกจำกัดอยู่เฉพาะในสาขาซูเปอร์คอมพิวเตอร์เนื่องจากฟอร์มแฟคเตอร์พิเศษที่มีบัส NVLINK แต่ต่อมา NVIDIA ได้เปิดตัว Tesla P100 ในรูปแบบการ์ดขยาย PCI Express มาตรฐาน

ในขั้นต้นผู้เชี่ยวชาญสันนิษฐานว่า P100 สามารถปรากฏในการ์ดวิดีโอเกมได้ เห็นได้ชัดว่า NVIDIA ไม่ได้ปฏิเสธความเป็นไปได้นี้ เนื่องจากชิปมีขั้นตอนการทำงานเต็มรูปแบบสำหรับการเรนเดอร์กราฟิก 3D แต่ตอนนี้เป็นที่ชัดเจนว่าไม่น่าจะไปไกลกว่ากลุ่มคอมพิวเตอร์เท่านั้น สำหรับกราฟิก NVIDIA มีผลิตภัณฑ์ที่เกี่ยวข้อง - GP102 ซึ่งมีชุดเชเดอร์ ALU, หน่วยการแมปพื้นผิวและ ROP ชุดเดียวกันกับ GP100 แต่ไม่มีบัลลาสต์ของคอร์ CUDA 64 บิตจำนวนมาก ไม่ต้องพูดถึงสถาปัตยกรรมอื่น ๆ การเปลี่ยนแปลง (ตัวกำหนดเวลาน้อยลง ลดแคช L2 เป็นต้น) ผลลัพธ์ที่ได้คือคอร์ที่มีขนาดกะทัดรัดมากขึ้น (ทรานซิสเตอร์ 12 พันล้านตัว) ซึ่งเมื่อรวมกับการละทิ้งหน่วยความจำ HBM2 เพื่อสนับสนุน GDDR5X ทำให้ NVIDIA สามารถจำหน่าย GP102 ไปยังตลาดที่กว้างขึ้นได้

ตอนนี้ GP102 ถูกสงวนไว้สำหรับตัวเร่งความเร็วระดับมืออาชีพ TITAN X (เพื่อไม่ให้สับสนกับ GeForce GTX TITAN X ที่ใช้ชิป GM200 ของสถาปัตยกรรม Maxwell) ซึ่งวางตำแหน่งเป็นบอร์ดสำหรับการคำนวณที่มีความแม่นยำลดลง (ในช่วงตั้งแต่ 8 ถึง 32 บิต โดยที่ 8 และ 16 เป็นการฝึกเชิงลึกที่ NVIDIA ชื่นชอบ) มากกว่าสำหรับเกมแม้ว่านักเล่นเกมที่ร่ำรวยจะสามารถซื้อการ์ดวิดีโอได้ในราคา 1,200 เหรียญสหรัฐ อันที่จริงในการทดสอบเกมของเรา TITAN X ไม่ได้ปรับราคาให้เหมาะสมด้วย 15 -20 เปอร์เซ็นต์ได้เปรียบเหนือ GeForce GTX 1080 แต่มาเพื่อช่วยเหลือการโอเวอร์คล็อก หากเราเปรียบเทียบ GTX 1080 และ TITAN X ที่โอเวอร์คล็อกแล้วอย่างหลังจะเร็วขึ้น 34% อย่างไรก็ตาม เกมเรือธงรุ่นใหม่ที่ใช้ GP102 มีแนวโน้มว่าจะมีหน่วยประมวลผลที่ใช้งานน้อยลงหรือสูญเสียการรองรับฟังก์ชันการประมวลผลใดๆ (หรือทั้งสองอย่าง)

โดยรวมแล้ว การเปิดตัว GPU ขนาดใหญ่ เช่น GP100 และ GP102 ในช่วงต้นของกระบวนการ 16 นาโนเมตร FinFET ถือเป็นความสำเร็จครั้งสำคัญสำหรับ NVIDIA โดยเฉพาะอย่างยิ่งเมื่อพิจารณาถึงความท้าทายที่บริษัทต้องเผชิญในขั้นตอน 40 นาโนเมตรและ 28 นาโนเมตร

NVIDIA GeForce GTX 1070 และ 1080

NVIDIA ใช้กลุ่มผลิตภัณฑ์ตัวเร่งความเร็วการเล่นเกม GeForce 10 series ตามลำดับตั้งแต่รุ่นที่ทรงพลังที่สุดไปจนถึงรุ่นที่มีงบประมาณมากขึ้น GeForce GTX 1080 และการ์ดเกมสถาปัตยกรรม Pascal อื่นๆ ที่เปิดตัวในเวลาต่อมาแสดงให้เห็นอย่างชัดเจนที่สุดว่า NVIDIA ตระหนักถึงความสามารถของกระบวนการ FinFET 14/16 นาโนเมตรอย่างเต็มที่ เพื่อทำให้ชิปมีความหนาแน่นมากขึ้นและประหยัดพลังงานมากขึ้น

นอกจากนี้ ด้วยการสร้าง Pascal นั้น NVIDIA ไม่เพียงแต่เพิ่มประสิทธิภาพในงานคำนวณต่างๆ (ดังที่แสดงไว้ในตัวอย่างของ GP100 และ GP102) แต่ยังเสริมสถาปัตยกรรมชิป Maxwell ด้วยฟังก์ชั่นที่ปรับการแสดงผลกราฟิกให้เหมาะสมที่สุด

ให้เราทราบสั้น ๆ เกี่ยวกับนวัตกรรมหลัก:

  • ปรับปรุงการบีบอัดสีด้วยอัตราส่วนสูงสุด 8:1;
  • ฟังก์ชันการฉายภาพหลายภาพพร้อมกันของกลไกเรขาคณิต PolyMorph Engine ซึ่งช่วยให้คุณสามารถสร้างการฉายภาพเรขาคณิตของฉากได้มากถึง 16 ภาพในการผ่านครั้งเดียว (สำหรับ VR และระบบที่มีจอแสดงผลหลายจอใน การกำหนดค่า NVIDIAล้อมรอบ);
  • ความสามารถในการขัดจังหวะ (จองล่วงหน้า) ในระหว่างการดำเนินการเรียกสาย (ระหว่างการเรนเดอร์) และการไหลของคำสั่ง (ระหว่างการคำนวณ) ซึ่งเมื่อรวมกับการกระจายทรัพยากรการประมวลผล GPU แบบไดนามิกจะให้การสนับสนุนอย่างเต็มที่สำหรับการคำนวณแบบอะซิงโครนัส (Async Compute) - แหล่งประสิทธิภาพเพิ่มเติมในเกมที่ใช้ DirectX 12 API ช่วยลดเวลาแฝงใน VR

จุดสุดท้ายน่าสนใจอย่างยิ่งเนื่องจากชิป Maxwell เข้ากันได้ทางเทคนิคกับการคำนวณแบบอะซิงโครนัส (ทำงานพร้อมกันกับคิวคำสั่งการคำนวณและกราฟิก) แต่ประสิทธิภาพในโหมดนี้ยังเหลือความต้องการอีกมาก การประมวลผลแบบอะซิงโครนัสของ Pascal ทำงานตามที่ตั้งใจไว้ ช่วยให้เกมสามารถโหลด GPU ได้อย่างมีประสิทธิภาพมากขึ้นด้วยเธรดแยกต่างหากสำหรับการคำนวณทางฟิสิกส์ (แม้ว่าจะเป็นที่ยอมรับบนชิปก็ตาม ปัญหา NVIDIAการโหลด ALU เชเดอร์อย่างเต็มที่นั้นไม่รุนแรงเท่ากับ AMD GPU)

โปรเซสเซอร์ GP104 ซึ่งใช้ใน GTX 1070 และ GTX 1080 เป็นผู้สืบทอดต่อจาก GM204 (ชิประดับที่สองในตระกูล Maxwell) แต่ NVIDIA ก็ประสบความสำเร็จในระดับสูงเช่นนี้ ความถี่สัญญาณนาฬิกาว่า GTX 1080 มีประสิทธิภาพเหนือกว่า GTX TITAN X (ขึ้นอยู่กับ GPU ที่ใหญ่กว่า) โดยเฉลี่ย 29% ทั้งหมดนี้อยู่ในแพ็คเกจระบายความร้อนที่อนุรักษ์นิยมมากกว่า (180 ต่อ 250 W) แม้แต่ GTX 1070 ก็ตัดมากกว่า GTX 970 มากเมื่อเทียบกับ GTX 980 (และ GTX 1070 ใช้หน่วยความจำ GDDR5 แทน GDDR5X ใน GTX 1080) ยังคงเร็วกว่า GTX TITAN X 5%

NVIDIA ได้อัปเดตตัวควบคุมการแสดงผลใน Pascal ซึ่งขณะนี้เข้ากันได้กับอินเทอร์เฟซ DisplayPort 1.3/1.4 และ HDMI 2.b ซึ่งหมายความว่าช่วยให้คุณสามารถส่งออกภาพด้วยความละเอียดหรืออัตรารีเฟรชที่เพิ่มขึ้นผ่านสายเคเบิลเส้นเดียว - สูงสุด 5K ที่ 60 Hz หรือ 4K ที่ 120 Hz การแสดงสี 10/12 บิตให้การสนับสนุนช่วงไดนามิก (HDR) บนหน้าจอบางส่วนที่มีความสามารถนี้ หน่วยฮาร์ดแวร์ Pascal เฉพาะสามารถเข้ารหัสและถอดรหัสวิดีโอ HEVC (H.265) ด้วยความละเอียดสูงสุด 4K, สี 10 บิต (ถอดรหัส 12 บิต) และ 60 Hz

ในที่สุด Pascal ได้ขจัดข้อจำกัดที่มีอยู่ใน SLI บัสเวอร์ชันก่อนหน้าแล้ว นักพัฒนาเพิ่มความถี่ของอินเทอร์เฟซและเปิดตัวบริดจ์สองช่องทางใหม่

คุณสามารถอ่านเพิ่มเติมเกี่ยวกับคุณสมบัติเหล่านี้ของสถาปัตยกรรม Pascal ได้ในรีวิว GeForce GTX 1080 ของเรา อย่างไรก็ตาม ก่อนที่จะก้าวไปสู่ผลิตภัณฑ์ใหม่อื่นๆ ในปีที่ผ่านมา เป็นที่น่าสังเกตว่าในตระกูล GeForce รุ่นที่ 10 นั้น NVIDIA จะเปิดตัวการ์ดดีไซน์อ้างอิงเป็นครั้งแรกตลอดอายุการใช้งานของรุ่นที่เกี่ยวข้อง ปัจจุบันเรียกว่า Founders Edition และจำหน่ายในราคาขายปลีกที่แนะนำสำหรับกราฟิกการ์ดของพันธมิตร ตัวอย่างเช่น GTX 1070 และ GTX 1080 มีราคาแนะนำอยู่ที่ 379 ดอลลาร์และ 599 ดอลลาร์ (ซึ่งสูงกว่า GTX 970 และ GTX 980 ในช่วงวัยรุ่นอยู่แล้ว) ในขณะที่ Founders Edition มีราคาอยู่ที่ 449 ดอลลาร์และ 699 ดอลลาร์

GeForce GTX 1050 และ1060

ชิป GP106 นำสถาปัตยกรรม Pascal มาสู่กลุ่มตัวเร่งความเร็วการเล่นเกมกระแสหลัก ในด้านการใช้งานก็ไม่ต่างจากรุ่นเก่าและในแง่ของจำนวนหน่วยประมวลผลก็เท่ากับครึ่งหนึ่งของ GP104 จริงอยู่ GP106 ต่างจาก GM206 (ซึ่งเป็นครึ่งหนึ่งของ GM204) ที่ใช้บัสหน่วยความจำ 192 บิต นอกจากนี้ NVIDIA ได้ถอดตัวเชื่อมต่อ SLI ออกจากบอร์ด GTX 1060 ซึ่งทำให้แฟน ๆ ของการอัพเกรดระบบย่อยวิดีโอทีละน้อยไม่พอใจ: เมื่อตัวเร่งความเร็วนี้หมดขีดความสามารถแล้ว คุณจะไม่สามารถเพิ่มการ์ดแสดงผลตัวที่สองเข้าไปได้ (ยกเว้นเกมที่ใช้ DirectX 12 ซึ่งช่วยให้คุณกระจายโหลดระหว่าง GPU โดยเลี่ยงผ่านไดรเวอร์)

GTX 1060 เดิมทีมี 6GB GDDR5 ซึ่งเป็นชิป GP106 ที่ใช้งานได้เต็มรูปแบบ และขายปลีกในราคา $249/$299 (การ์ดพันธมิตรและ Founders Edition ตามลำดับ) แต่แล้ว NVIDIA ก็ปล่อยการ์ดแสดงผลที่มีหน่วยความจำ 3 GB และราคาแนะนำอยู่ที่ 199 ดอลลาร์ ซึ่งลดจำนวนหน่วยประมวลผลลงด้วย การ์ดแสดงผลทั้งสองมี TDP ที่น่าสนใจที่ 120 W และมีประสิทธิภาพใกล้เคียงกับ GeForce GTX 970 และ GTX 980

GeForce GTX 1050 และ GTX 1050 Ti อยู่ในหมวดหมู่ต่ำสุดที่เชี่ยวชาญโดยสถาปัตยกรรม Pascal แต่ไม่ว่าพวกเขาจะดูถ่อมตัวเพียงใดเมื่อเทียบกับพี่ชาย NVIDIA ได้ก้าวไปข้างหน้าอย่างยิ่งใหญ่ที่สุดในกลุ่มงบประมาณ GTX 750/750 Ti ซึ่งเคยครอบครองมาก่อนนั้นอยู่ในการทำซ้ำครั้งแรกของสถาปัตยกรรม Maxwell ดังนั้น GTX 1050/1050 Ti ซึ่งแตกต่างจากตัวเร่งความเร็วอื่น ๆ ในตระกูล Pascal จึงมีความก้าวหน้าไม่ใช่หนึ่งเดียว แต่เป็นหนึ่งชั่วอายุคนครึ่ง ด้วย GPU ที่ใหญ่กว่าอย่างเห็นได้ชัดและหน่วยความจำโอเวอร์คล็อกที่สูงกว่า GTX 1050/1050 Ti ปรับปรุงประสิทธิภาพที่เหนือกว่ารุ่นก่อนมากกว่าสมาชิกคนอื่นๆ ในซีรีส์ Pascal (ความแตกต่าง 90% ระหว่าง GTX 750 Ti และ GTX 1050 Ti)

และถึงแม้ว่า GTX 1050/1050 Ti จะกินไฟมากกว่าเล็กน้อย (75 เทียบกับ 60 W) แต่ก็ยังเหมาะสมตามมาตรฐานพลังงานสำหรับการ์ด PCI Express ที่ไม่มีขั้วต่อจ่ายไฟเพิ่มเติม NVIDIA ไม่ได้เปิดตัวตัวเร่งความเร็วระดับล่างในรูปแบบ Founders Edition แต่ขอแนะนำ ราคาขายปลีกอยู่ที่ 109 ดอลลาร์ และ 139 ดอลลาร์

เอเอ็มดีโพลาริส: Radeon RX 460/470/480

การตอบสนองของ AMD ต่อ Pascal คือชิปตระกูล Polaris ตอนนี้กลุ่มผลิตภัณฑ์ Polaris มีเพียงชิปสองตัวเท่านั้นโดยที่ AMD ผลิตการ์ดแสดงผลสามตัว (Radeon RX 460, RX 470 และ RX 480) ซึ่งจำนวน RAM ออนบอร์ดจะแตกต่างกันไปเพิ่มเติม ดังที่คุณเห็นได้อย่างง่ายดายจากหมายเลขรุ่น ประสิทธิภาพระดับบนของ Radeon 400 series ยังคงว่างเปล่า AMD จะต้องเติมผลิตภัณฑ์ที่ใช้ Vega Silicon ย้อนกลับไปในยุค 28 นาโนเมตร AMD มีนิสัยชอบทดสอบนวัตกรรมบนชิปที่มีขนาดค่อนข้างเล็ก จากนั้นจึงแนะนำนวัตกรรมเหล่านี้ลงใน GPU ระดับเรือธงเท่านั้น

ควรสังเกตทันทีว่าในกรณีของ AMD โปรเซสเซอร์กราฟิกตระกูลใหม่ไม่เหมือนกัน เวอร์ชั่นใหม่สถาปัตยกรรม GCN (Graphics Core Next) พื้นฐาน แต่สะท้อนถึงการผสมผสานระหว่างสถาปัตยกรรมและคุณลักษณะอื่นๆ ของผลิตภัณฑ์ สำหรับ GPU ที่สร้างขึ้นโดยใช้เทคโนโลยีกระบวนการใหม่ AMD ได้ละทิ้ง "เกาะ" ต่างๆ ในชื่อรหัส (หมู่เกาะทางเหนือ หมู่เกาะใต้ ฯลฯ) และแสดงด้วยชื่อของดวงดาว

อย่างไรก็ตาม สถาปัตยกรรม GCN ใน Polaris ได้รับการอัพเดตครั้งที่สามอีกครั้ง ซึ่งต้องขอบคุณ (พร้อมกับการเปลี่ยนไปใช้เทคโนโลยีการประมวลผล FinFET 14 นาโนเมตร) AMD จึงเพิ่มประสิทธิภาพต่อวัตต์ได้อย่างมาก

  • หน่วยประมวลผล ซึ่งเป็นรูปแบบเบื้องต้นของการจัดระเบียบ ALU เชเดอร์ใน GCN มีการเปลี่ยนแปลงหลายประการที่เกี่ยวข้องกับการดึงคำสั่งล่วงหน้าและการแคช และการเข้าถึงแคช L2 ซึ่งร่วมกันเพิ่มประสิทธิภาพเฉพาะของ CU ขึ้น 15%
  • ขณะนี้มีการรองรับการคำนวณแบบครึ่งความแม่นยำ (FP16) ซึ่งใช้ในโปรแกรมคอมพิวเตอร์วิทัศน์และการเรียนรู้ของเครื่อง
  • GCN 1.3 ให้การเข้าถึงโดยตรงไปยังชุดคำสั่งภายใน (ISA) ของตัวประมวลผลสตรีม ซึ่งนักพัฒนาสามารถเขียนโค้ดระดับต่ำและรวดเร็วมาก ซึ่งต่างจากภาษา DirectX และ OpenGL shader ที่แยกออกมาจากฮาร์ดแวร์
  • ขณะนี้โปรเซสเซอร์เรขาคณิตสามารถกำจัดรูปหลายเหลี่ยมขนาดศูนย์หรือรูปหลายเหลี่ยมที่ไม่มีพิกเซลในการฉายภาพในช่วงต้นของไปป์ไลน์ได้ และมีแคชดัชนีที่ช่วยลดการใช้ทรัพยากรเมื่อเรนเดอร์รูปทรงเรขาคณิตที่มีขนาดเล็กและซ้ำกัน
  • แคช L2 สองเท่า

นอกจากนี้ วิศวกรของ AMD ยังทำงานอย่างหนักเพื่อให้ Polaris ทำงานที่ความถี่สูงที่สุดเท่าที่จะเป็นไปได้ ขณะนี้ความถี่ของ GPU ได้รับการควบคุมโดยมีค่าหน่วงเวลาน้อยที่สุด (ค่าหน่วงเวลาน้อยกว่า 1 ns) และเส้นโค้งแรงดันไฟฟ้าของการ์ดจะถูกปรับทุกครั้งที่บูตพีซี เพื่อคำนึงถึงการเปลี่ยนแปลงในพารามิเตอร์ระหว่างชิปแต่ละตัวและอายุของซิลิคอน ระหว่างดำเนินการ

อย่างไรก็ตาม การเปลี่ยนไปใช้กระบวนการ 14nm FinFET นั้นไม่ได้ราบรื่นสำหรับ AMD แท้จริงแล้ว บริษัท สามารถเพิ่มประสิทธิภาพต่อวัตต์ได้ 62% (ตัดสินโดยผลลัพธ์ของ Radeon RX 480 และ Radeon R9 380X ในการทดสอบการเล่นเกมและ TDP ของการ์ด) อย่างไรก็ตาม ความถี่สูงสุดของ Polaris จะต้องไม่เกิน 1266 MHz และมีพันธมิตรด้านการผลิตเพียงไม่กี่รายเท่านั้นที่ประสบความสำเร็จมากขึ้นด้วยการทำงานเพิ่มเติมเกี่ยวกับระบบทำความเย็นและระบบไฟฟ้า ในทางกลับกัน การ์ดแสดงผล GeForce ยังคงรักษาความเป็นผู้นำในแง่ของอัตราส่วนประสิทธิภาพและพลังงาน ซึ่ง NVIDIA ทำได้ในรุ่น Maxwell ดูเหมือนว่า AMD ในระยะแรกไม่สามารถเปิดเผยความสามารถทั้งหมดของกระบวนการทางเทคนิครุ่นใหม่ได้หรือสถาปัตยกรรม GCN เองก็ต้องการการปรับปรุงให้ทันสมัยอย่างล้ำลึกอยู่แล้ว - งานสุดท้ายเหลืออยู่ที่ชิป Vega

ตัวเร่งความเร็วที่ใช้ Polaris มีราคาตั้งแต่ 109 ถึง 239 เหรียญสหรัฐ (ดูตาราง) แม้ว่าจะตอบสนองต่อรูปลักษณ์ของ GeForce GTX 1050/1050 Ti แล้ว AMD ก็ลดราคาของการ์ดที่ต่ำกว่าทั้งสองใบเหลือ 100 เหรียญและ 170 เหรียญสหรัฐตามลำดับ บน ช่วงเวลานี้ในแต่ละหมวดหมู่ราคา/ประสิทธิภาพ มีความสมดุลด้านพลังงานที่คล้ายคลึงกันระหว่างผลิตภัณฑ์คู่แข่ง: GeForce GTX 1050 Ti เร็วกว่า Radeon RX 460 พร้อม RAM ขนาด 4GB, GTX 1060 พร้อมหน่วยความจำ 3GB เร็วกว่า RX 470 และ GTX 1060 ที่เต็มเปี่ยมนั้นนำหน้า RX 480 เมื่อรวมกันแล้ว การ์ดแสดงผล AMD ก็มีราคาถูกกว่าซึ่งหมายความว่าเป็นที่นิยม

เอเอ็มดี Radeon Pro Duo

รายงานในปีที่ผ่านมาในด้าน GPU แยกจะไม่สมบูรณ์หากเราเพิกเฉยต่อการ์ดแสดงผล "สีแดง" อีกหนึ่งตัว ในขณะที่ AMD ยังไม่ได้เปิดตัวอะแดปเตอร์วิดีโอโปรเซสเซอร์ตัวเดียวระดับเรือธงที่จะมาแทนที่ Radeon R9 Fury X บริษัทยังมีอีกหนึ่งก้าวที่พิสูจน์แล้วในการพิชิตขอบเขตใหม่ต่อไป - ติดตั้งชิปฟิจิสองตัวบนบอร์ดเดียว การ์ดใบนี้ซึ่งการเปิดตัวของ AMD เลื่อนออกไปซ้ำแล้วซ้ำอีก แต่ก็ยังวางขายก่อน GeForce GTX 1080 ไม่นาน แต่ตกไปอยู่ในหมวดหมู่ของตัวเร่งความเร็ว Radeon Pro ระดับมืออาชีพและอยู่ในตำแหน่งที่เป็นแพลตฟอร์มสำหรับการสร้างเกมในสภาพแวดล้อม VR

สำหรับนักเล่นเกม ราคา 1,499 ดอลลาร์ (แพงกว่า Radeon R9 Fury Xs เมื่อเปิดตัว) Radeon Pro Duo ไม่สนใจ และเราไม่มีโอกาสทดสอบการ์ดใบนี้ด้วยซ้ำ น่าเสียดายเพราะจากมุมมองทางเทคนิค Radeon Pro Duo ดูน่าสนใจ TDP ป้ายชื่อของการ์ดเพิ่มขึ้นเพียง 27% เมื่อเทียบกับ Fury X แม้ว่าความถี่สูงสุดจะสูงก็ตาม โปรเซสเซอร์เอเอ็มดีลดลง 50 MHz ก่อนหน้านี้ AMD ได้เปิดตัวการ์ดวิดีโอโปรเซสเซอร์ดูอัลที่ประสบความสำเร็จแล้วนั่นคือ Radeon R9 295X2 ดังนั้นข้อกำหนดที่ผู้ผลิตประกาศจึงไม่ทำให้เกิดความสงสัยมากนัก

สิ่งที่คาดหวังในปี 2560

ความคาดหวังหลักในปีหน้านั้นเกี่ยวข้องกับ AMD NVIDIA มีแนวโน้มที่จะจำกัดตัวเองในการเปิดตัวการ์ดเกมเรือธงที่ใช้ GP102 ภายใต้ชื่อ GeForce GTX 1080 Ti และบางทีอาจจะเติมเต็มตำแหน่งที่ว่างในซีรีส์ GeForce ลำดับที่ 10 - GTX 1060 Ti มิฉะนั้นสายคันเร่ง Pascal ได้ถูกสร้างขึ้นแล้วและการเปิดตัวสถาปัตยกรรมถัดไป Volta มีการวางแผนในปี 2561 เท่านั้น

เช่นเดียวกับในด้าน CPU นั้น AMD ได้รวมพลังทั้งหมดเข้าด้วยกันเพื่อพัฒนาสถาปัตยกรรมไมโคร GPU ที่ล้ำหน้าอย่างแท้จริง ในขณะที่ Polaris ได้กลายเป็นเพียงโพสต์ชั่วคราวระหว่างทางไปสู่รุ่นหลัง น่าจะเป็นช่วงไตรมาสแรกของปี 2560 บริษัทแล้วจะเปิดตัวซิลิคอนที่ดีที่สุด Vega 10 ออกสู่ตลาดมวลชนเป็นครั้งแรก (และตามด้วยชิประดับล่างอย่างน้อยหนึ่งตัวในสายผลิตภัณฑ์) หลักฐานที่น่าเชื่อถือที่สุดเกี่ยวกับความสามารถของมันคือการประกาศการ์ดประมวลผล MI25 ในสายผลิตภัณฑ์ Radeon Instinct ซึ่งวางตำแหน่งเป็นตัวเร่งความเร็วสำหรับงานการเรียนรู้เชิงลึก ตามข้อกำหนดแล้ว การ์ดดังกล่าวมีพื้นฐานมาจาก Vega 10 การ์ดพัฒนาพลังการประมวลผล 12.5 TFLOPS ในการคำนวณแบบ single-precision (FP32) ซึ่งมากกว่า TITAN X บน GP102 และติดตั้งหน่วยความจำขนาด 16 GB หน่วยความจำ HBM2 TDP ของการ์ดแสดงผลอยู่ภายใน 300 W ประสิทธิภาพที่แท้จริงของโปรเซสเซอร์สามารถคาดเดาได้เท่านั้น แต่เป็นที่ทราบกันว่า Vega จะนำการอัปเดตขนาดใหญ่ที่สุดมาสู่สถาปัตยกรรมไมโคร GPU นับตั้งแต่เปิดตัวชิปที่ใช้ GCN ตัวแรกเมื่อห้าปีที่แล้ว อย่างหลังจะปรับปรุงประสิทธิภาพต่อวัตต์อย่างมีนัยสำคัญและช่วยให้ใช้พลังการประมวลผลของ shader ALUs (ซึ่งชิป AMD ตามปกติขาด) ได้อย่างมีประสิทธิภาพมากขึ้นในแอปพลิเคชันเกม

นอกจากนี้ยังมีข่าวลือว่าวิศวกรของ AMD ได้เชี่ยวชาญเทคโนโลยีการผลิต 14 นาโนเมตร FinFET แล้วและบริษัทก็พร้อมที่จะเปิดตัวการ์ดวิดีโอ Polaris รุ่นที่สองที่มี TDP ที่ต่ำกว่าอย่างมาก สำหรับเราดูเหมือนว่าหากสิ่งนี้เป็นจริงชิปที่อัปเดตจะเข้าสู่กลุ่ม Radeon RX 500 มากกว่ารับดัชนีที่เพิ่มขึ้นในซีรีส์ 400 ที่มีอยู่

แอปพลิเคชัน. กลุ่มผลิตภัณฑ์อะแดปเตอร์วิดีโอแยกในปัจจุบันจาก AMD และ NVIDIA

ผู้ผลิต เอเอ็มดี
แบบอย่าง เรดออน RX460 เรดออน RX470 เรดออน RX480 Radeon R9 นาโน Radeon R9 Fury Radeon R9 Fury X
จีพียู
ชื่อ โพลาริส 11 โพลาริส 10 โพลาริส 10 ฟิจิ เอ็กซ์ที ฟิจิโปร ฟิจิ เอ็กซ์ที
สถาปัตยกรรมไมโคร GCN 1.3 GCN 1.3 GCN 1.3 GCN 1.2 GCN 1.2 GCN 1.2
กระบวนการทางเทคนิค นาโนเมตร FinFET 14 นาโนเมตร FinFET 14 นาโนเมตร FinFET 14 นาโนเมตร 28 28 28
จำนวนทรานซิสเตอร์, ล้าน 3 000 5 700 5 700 8900 8900 8900
1 090 / 1 200 926 / 1 206 1 120 / 1 266 — / 1 000 — / 1 000 — / 1 050
จำนวนเชเดอร์ ALU 896 2 048 2 304 4096 3584 4096
56 128 144 256 224 256
หมายเลขรปภ 16 32 32 64 64 64
แกะ
ความกว้างของบัส บิต 128 256 256 4096 4096 4096
ประเภทชิป GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM เอช.บี.เอ็ม. เอช.บี.เอ็ม. เอช.บี.เอ็ม.
1 750 (7 000) 1 650 (6 600) 1 750 (7 000) / 2 000 (8 000) 500 (1000) 500 (1000) 500 (1000)
ปริมาณ, เมกะไบต์ 2 048 / 4 096 4 096 4 096 / 8 192 4096 4096 4096
บัส I/O PCI เอ็กซ์เพรส 3.0 x8 PCI เอ็กซ์เพรส 3.0 x16 PCI เอ็กซ์เพรส 3.0 x16 PCI เอ็กซ์เพรส 3.0 x16 PCI เอ็กซ์เพรส 3.0 x16 PCI เอ็กซ์เพรส 3.0 x16
ผลงาน
2 150 4 940 5 834 8 192 7 168 8 602
ประสิทธิภาพ FP32/FP64 1/16 1/16 1/16 1/16 1/16 1/16
112 211 196/224 512 512 512
เอาต์พุตรูปภาพ
DL DVI-D, HDMI 2.0b, ดิสเพลย์พอร์ต 1.3/1.4 DL DVI-D, HDMI 2.0b, ดิสเพลย์พอร์ต 1.3/1.4 HDMI 1.4a, ดิสเพลย์พอร์ต 1.2 HDMI 1.4a, ดิสเพลย์พอร์ต 1.2 HDMI 1.4a, ดิสเพลย์พอร์ต 1.2
ทีดีพี, ว <75 120 150 175 275 275
109/139 179 199/229 649 549 649
8 299 / 10 299 15 999 16 310 / 18 970 น.ด น.ด น.ด
ผู้ผลิต NVIDIA
แบบอย่าง การ์ดจอ GTX 1050 GeForce GTX 1050 Ti GeForce GTX 1060 3GB การ์ดจอ GTX 1060 การ์ดจอ GTX 1070 การ์ดจอ GTX1080 ไททัน เอ็กซ์
จีพียู
ชื่อ GP107 GP107 GP106 GP106 GP104 GP104 GP102
สถาปัตยกรรมไมโคร ปาสคาล ปาสคาล แม็กซ์เวลล์ แม็กซ์เวลล์ ปาสคาล ปาสคาล ปาสคาล
กระบวนการทางเทคนิค นาโนเมตร FinFET 14 นาโนเมตร FinFET 14 นาโนเมตร FinFET 16 นาโนเมตร FinFET 16 นาโนเมตร FinFET 16 นาโนเมตร FinFET 16 นาโนเมตร FinFET 16 นาโนเมตร
จำนวนทรานซิสเตอร์, ล้าน 3 300 3 300 4 400 4 400 7 200 7 200 12 000
ความถี่สัญญาณนาฬิกา, MHz: นาฬิกาฐาน / นาฬิกาบูสต์ 1 354 / 1 455 1 290 / 1 392 1506/1708 1506/1708 1 506 / 1 683 1 607 / 1 733 1 417 / 1531
จำนวนเชเดอร์ ALU 640 768 1 152 1 280 1 920 2 560 3 584
จำนวนหน่วยการแมปพื้นผิว 40 48 72 80 120 160 224
หมายเลขรปภ 32 32 48 48 64 64 96
แกะ
ความกว้างของบัส บิต 128 128 192 192 256 256 384
ประเภทชิป GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5 SDRAM GDDR5X SDRAM GDDR5X SDRAM
ความถี่สัญญาณนาฬิกา, MHz (แบนด์วิดท์ต่อการสัมผัส, Mbit/s) 1 750 (7 000) 1 750 (7 000) 2000 (8000) 2000 (8000) 2000 (8000) 1 250 (10 000) 1 250 (10 000)
ปริมาณ, เมกะไบต์ 2 048 4 096 6 144 6 144 8 192 8 192 12 288
บัส I/O PCI เอ็กซ์เพรส 3.0 x16 PCI เอ็กซ์เพรส 3.0 x16 PCI เอ็กซ์เพรส 3.0 x16 PCI เอ็กซ์เพรส 3.0 x16 PCI เอ็กซ์เพรส 3.0 x16 PCI เอ็กซ์เพรส 3.0 x16 PCI เอ็กซ์เพรส 3.0 x16
ผลงาน
ประสิทธิภาพสูงสุด FP32, GFLOPS (ขึ้นอยู่กับความถี่ที่ระบุสูงสุด) 1 862 2 138 3 935 4 373 6 463 8 873 10 974
ประสิทธิภาพ FP32/FP64 1/32 1/32 1/32 1/32 1/32 1/32 1/32
แบนด์วิดท์ RAM, GB/s 112 112 192 192 256 320 480
เอาต์พุตรูปภาพ
อินเตอร์เฟซเอาท์พุทภาพ DL DVI-D, ดิสเพลย์พอร์ต 1.3/1.4, HDMI 2.0b DL DVI-D, ดิสเพลย์พอร์ต 1.3/1.4, HDMI 2.0b DL DVI-D, ดิสเพลย์พอร์ต 1.3/1.4, HDMI 2.0b DL DVI-D, ดิสเพลย์พอร์ต 1.3/1.4, HDMI 2.0b DL DVI-D, ดิสเพลย์พอร์ต 1.3/1.4, HDMI 2.0b DL DVI-D, ดิสเพลย์พอร์ต 1.3/1.4, HDMI 2.0b
ทีดีพี, ว 75 75 120 120 150 180 250
ราคาขายปลีกที่แนะนำ ณ เวลาที่วางจำหน่าย (สหรัฐอเมริกา ไม่รวมภาษี) $ 109 139 199 249/299 (Founders Edition / การ์ดพันธมิตร) 379/449 (Founders Edition / บัตรพันธมิตร) 599/699 (Founders Edition/บัตรพันธมิตร) 1 200
ราคาขายปลีกที่แนะนำ ณ เวลาที่วางจำหน่าย (รัสเซีย) ถู 8 490 10 490 น.ด 18,999/- (Founders Edition/การ์ดพันธมิตร) ND / 34,990 (Founders Edition / การ์ดพันธมิตร) ND / 54,990 (Founders Edition / การ์ดพันธมิตร)

ผู้จัดการงาน วินโดวส์ 10มีเครื่องมือตรวจสอบโดยละเอียด จีพียู (จีพียู). คุณสามารถดูการใช้งาน GPU ต่อแอปและทั่วทั้งระบบ และ ไมโครซอฟต์สัญญาว่าตัวชี้วัด ผู้จัดการงาน จะมีความแม่นยำมากกว่าตัวบ่งชี้จากยูทิลิตี้บุคคลที่สาม

มันทำงานอย่างไร

คุณสมบัติเหล่านี้ จีพียูถูกเพิ่มเข้ามาในการอัพเดต Fall Creators สำหรับ Windows 10 หรือเรียกอีกอย่างว่า วินโดวส์ 10 เวอร์ชัน 1709 . หากคุณใช้ Windows 7, 8 หรือ Windows 10 เวอร์ชันเก่า คุณจะไม่เห็นเครื่องมือเหล่านี้ในตัวจัดการงาน

หน้าต่างใช้คุณสมบัติใหม่กว่าใน Windows Display Driver Model เพื่อดึงข้อมูลโดยตรงจาก จีพียู (VidSCH) และตัวจัดการหน่วยความจำวิดีโอ (VidMm) ในคอร์กราฟิก WDDM ซึ่งมีหน้าที่รับผิดชอบในการจัดสรรทรัพยากรจริง มันแสดงข้อมูลที่แม่นยำมากไม่ว่าแอปพลิเคชัน API ใดจะใช้ในการเข้าถึง GPU - Microsoft DirectX, OpenGL, Vulkan, OpenCL, NVIDIA CUDA, AMD Mantle หรืออย่างอื่น

นั่นคือเหตุผลว่าทำไมใน ผู้จัดการงาน แสดงเฉพาะระบบที่สอดคล้องกับ WDDM 2.0 GPU . หากคุณไม่เห็นสิ่งนี้ แสดงว่า GPU ของระบบของคุณอาจใช้ไดรเวอร์ประเภทที่เก่ากว่า

คุณสามารถตรวจสอบเวอร์ชันของ WDDM ที่ไดรเวอร์ของคุณใช้อยู่ได้ จีพียูโดยกดปุ่ม Windows + R พิมพ์ "dxdiag" ในช่องจากนั้นกด "Enter" เพื่อเปิดเครื่องมือ " เครื่องมือวินิจฉัย DirectX" ไปที่แท็บ "หน้าจอ" แล้วดูทางด้านขวาของ "รุ่น" ในส่วน "ไดรเวอร์" หากคุณเห็นไดรเวอร์ WDDM 2.x ที่นี่ แสดงว่าระบบของคุณเข้ากันได้ หากคุณเห็นไดรเวอร์ WDDM 1.x ที่นี่ แสดงว่าไฟล์ของคุณ จีพียูเข้ากันไม่ได้

วิธีดูประสิทธิภาพของ GPU

ข้อมูลนี้มีอยู่ใน ผู้จัดการงาน แม้ว่าจะถูกซ่อนไว้ตามค่าเริ่มต้นก็ตาม หากต้องการเปิด ให้เปิด ผู้จัดการงานโดยคลิกขวาที่พื้นที่ว่างบนทาสก์บาร์แล้วเลือก " ผู้จัดการงาน"หรือโดยการกด Ctrl+Shift+Esc บนแป้นพิมพ์

คลิกปุ่ม "รายละเอียดเพิ่มเติม" ที่ด้านล่างของหน้าต่าง " ผู้จัดการงาน" ถ้าคุณเห็นมุมมองธรรมดาแบบมาตรฐาน

ถ้า GPU ไม่แสดงในตัวจัดการงาน ในโหมดเต็มหน้าจอบนแท็บ " กระบวนการ"คลิกขวาที่ส่วนหัวคอลัมน์แล้วเปิดใช้งานตัวเลือก" จีพียู " นี่จะเป็นการเพิ่มคอลัมน์ จีพียู ซึ่งช่วยให้คุณเห็นเปอร์เซ็นต์ของทรัพยากร จีพียู ใช้โดยแต่ละแอปพลิเคชัน

คุณยังสามารถเปิดใช้งานตัวเลือก " แกน GPU" เพื่อดูว่าแอปใช้ GPU ตัวใด

การใช้งานทั่วไป จีพียูของแอปพลิเคชันทั้งหมดบนระบบของคุณจะปรากฏที่ด้านบนของคอลัมน์ จีพียู. คลิกคอลัมน์ จีพียูเพื่อจัดเรียงรายการและดูว่าแอปใดกำลังใช้งานของคุณอยู่ จีพียูมากที่สุดในขณะนี้

ตัวเลขในคอลัมน์ จีพียู- นี่คือการใช้งานสูงสุดที่แอปพลิเคชันใช้กับเอ็นจิ้นทั้งหมด ตัวอย่างเช่น หากแอปพลิเคชันใช้กลไก GPU 3D 50% และการถอดรหัสกลไกวิดีโอ GPU 2% คุณจะเห็นคอลัมน์ GPU แสดงตัวเลข 50%

ในคอลัมน์ " แกน GPU» แต่ละแอปพลิเคชันจะแสดงขึ้น นี่แสดงให้คุณเห็นว่าอะไร GPU ทางกายภาพและแอปพลิเคชันใช้เอ็นจิ้นใด เช่น ใช้เอ็นจิ้น 3 มิติหรือเอ็นจิ้นการถอดรหัสวิดีโอ คุณสามารถกำหนดได้ว่า GPU ตัวใดมีคุณสมบัติสำหรับเมตริกเฉพาะโดยทำเครื่องหมายที่ " ผลงาน"ซึ่งเราจะพูดถึงในหัวข้อถัดไป

วิธีดูการใช้งานหน่วยความจำวิดีโอของแอปพลิเคชัน

หากคุณสงสัยว่าแอปพลิเคชันใช้หน่วยความจำวิดีโอจำนวนเท่าใด คุณต้องไปที่แท็บรายละเอียดในตัวจัดการงาน บนแท็บรายละเอียด คลิกขวาที่ส่วนหัวของคอลัมน์ใดก็ได้ และเลือกเลือกคอลัมน์ เลื่อนลงและเปิดคอลัมน์ " จีพียู », « แกน GPU », « " และ " " สองรายการแรกมีอยู่ในแท็บกระบวนการด้วย แต่ตัวเลือกหน่วยความจำสองรายการสุดท้ายมีเฉพาะในแผงรายละเอียดเท่านั้น

คอลัมน์ " หน่วยความจำ GPU เฉพาะ » แสดงจำนวนหน่วยความจำที่แอปพลิเคชันใช้บนเครื่องของคุณ จีพียู. หากพีซีของคุณมีการ์ดกราฟิกแยก NVIDIA หรือ AMD นี่เป็นส่วนหนึ่งของ VRAM ซึ่งเป็นจำนวนหน่วยความจำกายภาพบนการ์ดกราฟิกที่แอปพลิเคชันใช้อยู่ ถ้าคุณมี โปรเซสเซอร์กราฟิกในตัว ส่วนหนึ่งของหน่วยความจำระบบปกติของคุณจะถูกสงวนไว้สำหรับฮาร์ดแวร์กราฟิกของคุณโดยเฉพาะ นี่แสดงว่าแอปพลิเคชันใช้หน่วยความจำที่สงวนไว้จำนวนเท่าใด

หน้าต่างยังอนุญาตให้แอปพลิเคชันจัดเก็บข้อมูลบางส่วนไว้ใน DRAM ของระบบปกติ คอลัมน์ " หน่วยความจำ GPU ที่ใช้ร่วมกัน " แสดงจำนวนหน่วยความจำที่แอปพลิเคชันกำลังใช้สำหรับอุปกรณ์วิดีโอจาก RAM ระบบปกติของคอมพิวเตอร์

คุณสามารถคลิกที่คอลัมน์ใดก็ได้เพื่อจัดเรียงและดูว่าแอปพลิเคชันใดใช้ทรัพยากรมากที่สุด ตัวอย่างเช่น หากต้องการดูแอปพลิเคชันที่ใช้หน่วยความจำวิดีโอมากที่สุดบน GPU ของคุณ ให้คลิกปุ่ม " หน่วยความจำ GPU เฉพาะ ».

วิธีติดตามการใช้งานการแชร์ GPU

เพื่อติดตามสถิติการใช้ทรัพยากรโดยรวม จีพียูไปที่ " ผลงาน"และดูที่" จีพียู" ที่ด้านล่างของแถบด้านข้าง หากคอมพิวเตอร์ของคุณมี GPU หลายตัว คุณจะเห็นหลายตัวเลือกที่นี่ จีพียู.

หากคุณมี GPU ที่เชื่อมโยงหลายตัว - โดยใช้คุณสมบัติเช่น NVIDIA SLI หรือ AMD Crossfire คุณจะเห็นพวกมันระบุด้วยเครื่องหมาย "#" ในชื่อ

หน้าต่างแสดงการใช้งาน จีพียูแบบเรียลไทม์ ค่าเริ่มต้น ผู้จัดการงาน พยายามแสดงเครื่องยนต์สี่ตัวที่น่าสนใจที่สุดตามสิ่งที่เกิดขึ้นในระบบของคุณ ตัวอย่างเช่น คุณจะเห็นกราฟิกที่แตกต่างกันขึ้นอยู่กับว่าคุณกำลังเล่นเกม 3 มิติหรือเข้ารหัสวิดีโอ อย่างไรก็ตาม คุณสามารถคลิกชื่อใดก็ได้ที่อยู่เหนือแผนภูมิ และเลือกเครื่องมืออื่นๆ ที่มีให้เลือก

ชื่อของคุณ จีพียูยังปรากฏในแถบด้านข้างและที่ด้านบนของหน้าต่างนี้ ทำให้ง่ายต่อการตรวจสอบฮาร์ดแวร์กราฟิกที่ติดตั้งบนพีซีของคุณ

คุณจะเห็นกราฟการใช้งานหน่วยความจำเฉพาะและที่ใช้ร่วมกัน จีพียู. การใช้หน่วยความจำที่ใช้ร่วมกัน จีพียูหมายถึงจำนวนหน่วยความจำทั้งหมดของระบบที่ใช้สำหรับงาน จีพียู. หน่วยความจำนี้สามารถใช้สำหรับทั้งงานระบบปกติและการบันทึกวิดีโอ

ที่ด้านล่างของหน้าต่าง คุณจะเห็นข้อมูล เช่น หมายเลขเวอร์ชันของไดรเวอร์วิดีโอที่ติดตั้ง วันที่พัฒนา และตำแหน่งทางกายภาพ จีพียูบนระบบของคุณ

หากคุณต้องการดูข้อมูลนี้ในหน้าต่างเล็ก ๆ ที่จะทิ้งไว้บนหน้าจอได้ง่ายกว่า ให้ดับเบิลคลิกที่ใดก็ได้ภายในหน้าจอ GPU หรือคลิกขวาที่ใดก็ได้ภายในนั้นแล้วเลือกตัวเลือก สรุปกราฟิก" คุณสามารถขยายหน้าต่างให้ใหญ่สุดได้ด้วยการดับเบิลคลิกในแผงหรือคลิกขวาในหน้าต่างแล้วยกเลิกการเลือก " สรุปกราฟิก».

คุณยังสามารถคลิกขวาที่กราฟและเลือก "แก้ไขกราฟ" > "แกนเดี่ยว" เพื่อดูกราฟเครื่องยนต์เพียงกราฟเดียวได้ จีพียู.

หากต้องการให้หน้าต่างนี้ปรากฏบนหน้าจอของคุณอย่างถาวร ให้คลิก "ตัวเลือก"> " เหนือหน้าต่างอื่นๆ».

ดับเบิลคลิกภายในแผง จีพียูอีกครั้งและคุณจะมีหน้าต่างขนาดเล็กที่สุดที่คุณสามารถวางตำแหน่งใดก็ได้บนหน้าจอ

โปรเซสเซอร์กราฟิกในตัวมีบทบาทสำคัญในทั้งนักเล่นเกมและผู้ใช้ที่ไม่ต้องการมาก

ขึ้นอยู่กับคุณภาพของเกม ภาพยนตร์ การชมวิดีโอบนอินเทอร์เน็ต

หลักการทำงาน

โปรเซสเซอร์กราฟิกถูกรวมเข้ากับเมนบอร์ดของคอมพิวเตอร์ - นี่คือลักษณะของกราฟิกในตัว

ตามกฎแล้วใช้เพื่อลบความจำเป็นในการติดตั้งอะแดปเตอร์กราฟิก -

เทคโนโลยีนี้ช่วยลดต้นทุนของผลิตภัณฑ์สำเร็จรูป นอกจากนี้เนื่องจากโปรเซสเซอร์ดังกล่าวมีขนาดกะทัดรัดและใช้พลังงานต่ำจึงมักติดตั้งในแล็ปท็อปและคอมพิวเตอร์เดสก์ท็อปที่ใช้พลังงานต่ำ

ดังนั้นโปรเซสเซอร์กราฟิกแบบรวมจึงเข้ามาเติมเต็มกลุ่มนี้มากจน 90% ของแล็ปท็อปในชั้นวางของในสหรัฐฯ มีโปรเซสเซอร์ดังกล่าว

แทนที่จะเป็นการ์ดแสดงผลทั่วไป กราฟิกในตัวมักจะใช้ RAM ของคอมพิวเตอร์เป็นเครื่องมือเสริม

จริงอยู่ โซลูชันนี้ค่อนข้างจำกัดประสิทธิภาพของอุปกรณ์ ถึงกระนั้น ตัวคอมพิวเตอร์เองและโปรเซสเซอร์กราฟิกก็ใช้บัสหน่วยความจำเดียวกัน

ดังนั้น "บริเวณใกล้เคียง" นี้จึงส่งผลต่อประสิทธิภาพของงาน โดยเฉพาะอย่างยิ่งเมื่อทำงานกับกราฟิกที่ซับซ้อนและระหว่างการเล่นเกม

ชนิด

กราฟิกในตัวมีสามกลุ่ม:

  1. กราฟิกหน่วยความจำที่ใช้ร่วมกัน - อุปกรณ์ที่ใช้การควบคุมร่วมกับโปรเซสเซอร์หลัก แกะ. ซึ่งช่วยลดต้นทุนได้อย่างมาก ปรับปรุงระบบประหยัดพลังงาน แต่ลดประสิทธิภาพลง ดังนั้นสำหรับผู้ที่ทำงานกับโปรแกรมที่ซับซ้อนโปรเซสเซอร์กราฟิกแบบรวมประเภทนี้จึงมักไม่เหมาะสม
  2. กราฟิกแบบแยก - ชิปวิดีโอและโมดูลหน่วยความจำวิดีโอหนึ่งหรือสองโมดูลถูกบัดกรีเข้าด้วยกัน บอร์ดระบบ. ด้วยเทคโนโลยีนี้ คุณภาพของภาพจึงได้รับการปรับปรุงอย่างมาก และยังสามารถใช้งานได้อีกด้วย กราฟิก 3 มิติด้วยผลลัพธ์ที่ดีที่สุด จริงอยู่คุณจะต้องจ่ายจำนวนมากสำหรับสิ่งนี้และหากคุณกำลังมองหาโปรเซสเซอร์พลังงานสูงทุกประการ ค่าใช้จ่ายอาจสูงอย่างไม่น่าเชื่อ นอกจากนี้ ค่าไฟฟ้าของคุณจะเพิ่มขึ้นเล็กน้อย - การใช้พลังงานของ GPU แยกจะสูงกว่าปกติ
  3. กราฟิกแยกแบบไฮบริดเป็นการผสมผสานระหว่างสองประเภทก่อนหน้านี้ ซึ่งรับประกันการสร้างบัส PCI Express ดังนั้นการเข้าถึงหน่วยความจำจึงดำเนินการทั้งผ่านหน่วยความจำวิดีโอที่บัดกรีและผ่าน RAM ด้วยโซลูชันนี้ ผู้ผลิตต้องการสร้างโซลูชันประนีประนอม แต่ก็ยังไม่สามารถขจัดข้อบกพร่องได้

ผู้ผลิต

ตามกฎแล้ว บริษัท ขนาดใหญ่ - และ - มีส่วนร่วมในการผลิตและพัฒนาโปรเซสเซอร์กราฟิกแบบรวม แต่องค์กรขนาดเล็กจำนวนมากก็มีส่วนร่วมในด้านนี้เช่นกัน

นี่ไม่ใช่เรื่องยากที่จะทำ มองหาจอแสดงผลหลักหรือจอแสดงผลเริ่มต้นก่อน หากคุณไม่เห็นสิ่งนี้ ให้มองหาออนบอร์ด, PCI, AGP หรือ PCI-E (ทั้งหมดขึ้นอยู่กับบัสที่ติดตั้งบนเมนบอร์ด)

ตัวอย่างเช่นการเลือก PCI-E คุณจะเปิดใช้งานการ์ดแสดงผล PCI-Express และปิดการใช้งานการ์ดแสดงผลในตัว

ดังนั้นในการเปิดใช้งานการ์ดแสดงผลในตัวคุณต้องค้นหาพารามิเตอร์ที่เหมาะสมใน BIOS บ่อยครั้งที่กระบวนการเปิดใช้งานจะเป็นไปโดยอัตโนมัติ

ปิดการใช้งาน

ปิดการใช้งานใน BIOS จะดีกว่า นี่เป็นตัวเลือกที่ง่ายที่สุดและไม่โอ้อวดที่สุดเหมาะสำหรับพีซีเกือบทั้งหมด ข้อยกเว้นเพียงอย่างเดียวคือแล็ปท็อปบางรุ่น

ค้นหา Peripherals หรือ Integrated Peripherals ใน BIOS อีกครั้ง หากคุณทำงานบนเดสก์ท็อป

สำหรับแล็ปท็อป ชื่อของฟังก์ชันจะแตกต่างกัน และไม่เหมือนกันทุกที่ ดังนั้นเพียงแค่ค้นหาสิ่งที่เกี่ยวข้องกับกราฟิก ตัวอย่างเช่น ตัวเลือกที่จำเป็นสามารถวางได้ในส่วนขั้นสูงและการกำหนดค่า

การปิดใช้งานยังดำเนินการในรูปแบบต่างๆ บางครั้งก็เพียงพอที่จะคลิก "ปิดการใช้งาน" และใส่การ์ดแสดงผล PCI-E ไว้เป็นอันดับแรกในรายการ

หากคุณเป็นผู้ใช้แล็ปท็อปอย่าตื่นตระหนกหากคุณไม่พบตัวเลือกที่เหมาะสม อย่างไรก็ตาม คุณอาจไม่มีฟังก์ชั่นดังกล่าว สำหรับอุปกรณ์อื่น ๆ ทั้งหมด กฎนั้นง่าย - ไม่ว่า BIOS จะดูเป็นอย่างไร การเติมก็เหมือนกัน

หากคุณมีการ์ดแสดงผลสองตัวและทั้งคู่แสดงอยู่ในตัวจัดการอุปกรณ์แสดงว่าเรื่องนี้ค่อนข้างง่าย: คลิกขวาที่การ์ดใบใดใบหนึ่งแล้วเลือก "ปิดการใช้งาน" อย่างไรก็ตาม โปรดทราบว่าจอแสดงผลอาจมืดลง สิ่งนี้น่าจะเกิดขึ้นมากที่สุด

อย่างไรก็ตามนี่ก็เป็นปัญหาที่แก้ไขได้เช่นกัน การรีสตาร์ทคอมพิวเตอร์หรือซอฟต์แวร์ก็เพียงพอแล้ว

ทำการตั้งค่าในภายหลังทั้งหมด ถ้ามันไม่ทำงาน วิธีนี้ให้ย้อนกลับการกระทำของคุณโดยใช้ โหมดปลอดภัย. คุณสามารถใช้วิธีก่อนหน้าได้ - ผ่าน BIOS

สองโปรแกรม - NVIDIA Control Center และ Catalyst Control Center - กำหนดค่าการใช้อะแดปเตอร์วิดีโอเฉพาะ

วิธีเหล่านี้ไม่โอ้อวดที่สุดเมื่อเทียบกับอีกสองวิธี - หน้าจอไม่น่าจะปิดและคุณจะไม่ทำให้การตั้งค่าผ่าน BIOS เสียหายโดยไม่ตั้งใจเช่นกัน

สำหรับ NVIDIA การตั้งค่าทั้งหมดจะอยู่ในส่วน 3D

คุณสามารถเลือกอะแดปเตอร์วิดีโอที่คุณต้องการสำหรับทุกคน ระบบปฏิบัติการและสำหรับบางโปรแกรมและเกม

ในซอฟต์แวร์ Catalyst ฟังก์ชันที่เหมือนกันจะอยู่ในตัวเลือก "Power" ในรายการย่อย "Switchable Graphics"

ดังนั้นการสลับระหว่าง GPU จึงเป็นเรื่องง่าย

มีวิธีการที่แตกต่างกันโดยเฉพาะผ่านโปรแกรมและ BIOS การเปิดหรือปิดกราฟิกรวมอย่างใดอย่างหนึ่งอาจมาพร้อมกับความล้มเหลวบางอย่างซึ่งส่วนใหญ่เกี่ยวข้องกับภาพ

มันอาจจะดับหรือบิดเบี้ยวไป ไม่มีอะไรจะส่งผลกระทบต่อไฟล์ในคอมพิวเตอร์ เว้นแต่คุณจะคลิกอะไรบางอย่างใน BIOS

บทสรุป

เป็นผลให้โปรเซสเซอร์กราฟิกแบบรวมเป็นที่ต้องการเนื่องจากมีต้นทุนที่ต่ำและมีขนาดกะทัดรัด

คุณจะต้องจ่ายเงินตามระดับประสิทธิภาพของคอมพิวเตอร์นั่นเอง

ในบางกรณี กราฟิกในตัวมีความจำเป็น - โปรเซสเซอร์แยกเหมาะอย่างยิ่งสำหรับการทำงานกับภาพสามมิติ

นอกจากนี้ผู้นำในอุตสาหกรรม ได้แก่ Intel, AMD และ Nvidia แต่ละตัวมีตัวเร่งกราฟิก โปรเซสเซอร์ และส่วนประกอบอื่นๆ ของตัวเอง

รุ่นยอดนิยมล่าสุด ได้แก่ Intel HD Graphics 530 และ AMD A10-7850K พวกมันค่อนข้างใช้งานได้ดี แต่มีข้อบกพร่องบางประการ โดยเฉพาะอย่างยิ่งสิ่งนี้ใช้กับกำลัง ประสิทธิภาพ และราคาของผลิตภัณฑ์สำเร็จรูป

คุณสามารถเปิดหรือปิดการใช้งานโปรเซสเซอร์กราฟิกที่มีคอร์ในตัวได้ด้วยตัวเองผ่าน BIOS ยูทิลิตี้และโปรแกรมต่าง ๆ แต่คอมพิวเตอร์เองก็สามารถทำสิ่งนี้เพื่อคุณได้อย่างง่ายดาย ทุกอย่างขึ้นอยู่กับการ์ดแสดงผลที่เชื่อมต่อกับจอภาพ

ใน อุปกรณ์ที่ทันสมัยมีการใช้โปรเซสเซอร์กราฟิกซึ่งเรียกอีกอย่างว่า GPU มันคืออะไรและมีหลักการทำงานอย่างไร? GPU (กราฟิก) เป็นโปรเซสเซอร์ที่มีหน้าที่หลักในการประมวลผลกราฟิกและการคำนวณจุดลอยตัว GPU ช่วยให้การทำงานของโปรเซสเซอร์หลักสะดวกขึ้นเมื่อพูดถึงเกมและแอพพลิเคชั่นหนัก ๆ ที่มีกราฟิก 3 มิติ

นี่คืออะไร?

GPU สร้างกราฟิก พื้นผิว สี โปรเซสเซอร์ที่มีหลายคอร์สามารถทำงานบนได้ ความเร็วสูง. กราฟิกการ์ดมีหลายคอร์ที่ทำงานบนเครื่องเป็นหลัก ความเร็วต่ำ. พวกเขาทำการคำนวณพิกเซลและจุดยอด ส่วนหลังได้รับการประมวลผลในระบบพิกัดเป็นหลัก โปรเซสเซอร์กราฟิกประมวลผลงานต่าง ๆ โดยการสร้างพื้นที่สามมิติบนหน้าจอนั่นคือวัตถุที่เคลื่อนที่เข้าไป

หลักการทำงาน

GPU ทำหน้าที่อะไร? เขาเกี่ยวข้องกับการประมวลผลกราฟิกในรูปแบบ 2D และ 3D ด้วย GPU คอมพิวเตอร์ของคุณจึงสามารถทำงานสำคัญได้เร็วและง่ายขึ้น ลักษณะเฉพาะของ GPU คือเพิ่มความเร็วในการคำนวณในระดับสูงสุด สถาปัตยกรรมได้รับการออกแบบในลักษณะที่ช่วยให้สามารถประมวลผลข้อมูลภาพได้อย่างมีประสิทธิภาพมากกว่า CPU กลางของคอมพิวเตอร์

เขามีหน้าที่รับผิดชอบตำแหน่งของโมเดลสามมิติในเฟรม นอกจากนี้ โปรเซสเซอร์แต่ละตัวจะกรองสามเหลี่ยมที่รวมอยู่ในนั้นด้วย จะกำหนดว่าอันไหนที่มองเห็นได้และลบสิ่งที่ซ่อนอยู่หลังวัตถุอื่น ๆ วาดแหล่งกำเนิดแสงและกำหนดว่าแหล่งกำเนิดแสงเหล่านี้ส่งผลต่อสีอย่างไร โปรเซสเซอร์กราฟิก (ตามที่อธิบายไว้ในบทความ) จะสร้างภาพและแสดงบนหน้าจอของผู้ใช้

ประสิทธิภาพ

สาเหตุคืออะไร งานที่มีประสิทธิภาพจีพียู? อุณหภูมิ. ปัญหาประการหนึ่งเกี่ยวกับพีซีและแล็ปท็อปคือความร้อนสูงเกินไป นี่คือสาเหตุหลักที่ทำให้อุปกรณ์และองค์ประกอบต่างๆ ล้มเหลวอย่างรวดเร็ว ปัญหา GPU เริ่มต้นเมื่ออุณหภูมิ CPU เกิน 65 °C ในกรณีนี้ ผู้ใช้สังเกตเห็นว่าโปรเซสเซอร์เริ่มทำงานน้อยลงและข้ามรอบสัญญาณนาฬิกาเพื่อลดอุณหภูมิที่เพิ่มขึ้นอย่างอิสระ

ช่วงอุณหภูมิ 65-80 °C ถือว่าวิกฤต ในกรณีนี้ ระบบจะรีบูต (ฉุกเฉิน) และคอมพิวเตอร์จะปิดเอง เป็นสิ่งสำคัญสำหรับผู้ใช้เพื่อให้แน่ใจว่าอุณหภูมิ GPU ไม่เกิน 50 °C อุณหภูมิ 30-35 °C ถือว่าปกติเมื่อไม่ได้ใช้งาน อุณหภูมิ 40-45 °C โดยใช้งานเป็นเวลานานหลายชั่วโมง ยิ่งอุณหภูมิต่ำลง ประสิทธิภาพการทำงานของคอมพิวเตอร์ก็จะสูงขึ้นตามไปด้วย สำหรับ เมนบอร์ด, การ์ดจอ, เคส และ ฮาร์ดไดรฟ์- สภาวะอุณหภูมิของคุณเอง

แต่ผู้ใช้หลายคนยังกังวลเกี่ยวกับคำถามว่าจะลดอุณหภูมิของโปรเซสเซอร์เพื่อเพิ่มประสิทธิภาพได้อย่างไร ก่อนอื่นคุณต้องค้นหาสาเหตุของความร้อนสูงเกินไป นี่อาจเป็นระบบระบายความร้อนที่อุดตัน ทำให้แผ่นระบายความร้อนแห้ง มัลแวร์, โอเวอร์คล็อกโปรเซสเซอร์, เฟิร์มแวร์ BIOS แบบดิบ สิ่งที่ง่ายที่สุดที่ผู้ใช้สามารถทำได้คือเปลี่ยนแผ่นระบายความร้อนซึ่งอยู่บนโปรเซสเซอร์ นอกจากนี้จำเป็นต้องทำความสะอาดระบบทำความเย็นด้วย ผู้เชี่ยวชาญยังแนะนำให้ติดตั้งเครื่องทำความเย็นที่ทรงพลังซึ่งช่วยเพิ่มการไหลเวียนของอากาศ หน่วยระบบ, เพิ่มความเร็วในการหมุนโดย อะแดปเตอร์กราฟิกเย็นกว่า คอมพิวเตอร์และ GPU ทั้งหมดมีรูปแบบการลดอุณหภูมิที่เหมือนกัน สิ่งสำคัญคือต้องตรวจสอบอุปกรณ์และทำความสะอาดตรงเวลา

ข้อมูลเฉพาะ

โปรเซสเซอร์กราฟิกตั้งอยู่บนการ์ดแสดงผล หน้าที่หลักคือประมวลผลกราฟิก 2D และ 3D หากมีการติดตั้ง GPU บนคอมพิวเตอร์ โปรเซสเซอร์ของอุปกรณ์จะไม่ทำงานที่ไม่จำเป็น จึงทำงานได้เร็วขึ้น คุณสมบัติหลักในทางกราฟิกก็คือเป้าหมายหลักคือการเพิ่มความเร็วในการคำนวณวัตถุและพื้นผิวนั่นคือ ข้อมูลกราฟิก. สถาปัตยกรรมโปรเซสเซอร์ช่วยให้ทำงานได้อย่างมีประสิทธิภาพมากขึ้นและประมวลผลข้อมูลภาพ โปรเซสเซอร์ปกติไม่สามารถทำได้

ชนิด

นี่คืออะไร - โปรเซสเซอร์กราฟิก? นี่คือส่วนประกอบที่รวมอยู่ในการ์ดแสดงผล ชิปมีหลายประเภท: แบบฝังและแบบแยก ผู้เชี่ยวชาญกล่าวว่าอันที่สองทำงานได้ดีกว่า มีการติดตั้งบนโมดูลแยกกันเนื่องจากมีกำลังไฟต่างกัน แต่ต้องการการระบายความร้อนที่ดีเยี่ยม คอมพิวเตอร์เกือบทั้งหมดมีโปรเซสเซอร์กราฟิกในตัว ติดตั้งอยู่ใน CPU เพื่อลดการใช้พลังงานลงหลายเท่า ไม่สามารถเทียบได้กับสิ่งที่แยกจากกันในแง่ของพลัง แต่มันก็มีเช่นกัน ลักษณะที่ดี,แสดงผลลัพธ์ที่ดี.

คอมพิวเตอร์กราฟิกส์

นี่อะไรน่ะ? นี่คือชื่อของสาขากิจกรรมที่ใช้เทคโนโลยีคอมพิวเตอร์เพื่อสร้างภาพและประมวลผลข้อมูลภาพ ทันสมัย คอมพิวเตอร์กราฟิกรวมถึงงานทางวิทยาศาสตร์ ช่วยให้คุณสามารถประมวลผลผลลัพธ์แบบกราฟิก สร้างไดอะแกรม กราฟ ภาพวาด และทำการทดลองเสมือนประเภทต่างๆ ได้

ผลิตภัณฑ์ด้านเทคนิคถูกสร้างขึ้นโดยใช้กราฟิกที่สร้างสรรค์ คอมพิวเตอร์กราฟิกมีประเภทอื่นๆ:

  • มีชีวิตชีวา;
  • มัลติมีเดีย;
  • ศิลปะ;
  • การโฆษณา;
  • เป็นตัวอย่าง

จากมุมมองทางเทคนิค คอมพิวเตอร์กราฟิกเป็นแบบสองมิติและ ภาพ 3 มิติ.

CPU และ GPU: ความแตกต่าง

อะไรคือความแตกต่างระหว่างการกำหนดทั้งสองนี้? ผู้ใช้หลายคนทราบว่าโปรเซสเซอร์กราฟิก (ตามที่อธิบายไว้ข้างต้น) และการ์ดแสดงผลทำงานต่างกัน นอกจากนี้โครงสร้างภายในยังแตกต่างกันอีกด้วย ทั้ง CPU และ GPU มีคุณสมบัติที่คล้ายกันมากมาย แต่ได้รับการออกแบบมาเพื่อวัตถุประสงค์ที่แตกต่างกัน

CPU ดำเนินการชุดคำสั่งเฉพาะในช่วงเวลาสั้นๆ ได้รับการออกแบบในลักษณะที่สร้างหลายสายโซ่ในเวลาเดียวกัน แยกกระแสคำสั่งออกเป็นหลายสาย ดำเนินการ จากนั้นจึงรวมกลับเป็นสายโซ่เดียวในลำดับเฉพาะ คำสั่งในเธรดนั้นขึ้นอยู่กับคำสั่งที่ตามมา ดังนั้น CPU จึงมีหน่วยการดำเนินการจำนวนไม่มาก โดยในที่นี้จะให้ความสำคัญกับความเร็วในการดำเนินการและลดเวลาหยุดทำงาน ทั้งหมดนี้ทำได้โดยใช้ไปป์ไลน์และหน่วยความจำแคช

GPU มีฟังก์ชั่นที่สำคัญอีกอย่างหนึ่ง - การเรนเดอร์เอฟเฟกต์ภาพและกราฟิก 3 มิติ มันทำงานง่ายกว่า: รับรูปหลายเหลี่ยมเป็นอินพุต ดำเนินการทางตรรกะและคณิตศาสตร์ที่จำเป็น และส่งออกพิกัดพิกเซล การทำงานของ GPU เกี่ยวข้องกับการจัดการกับงานต่างๆ จำนวนมาก ลักษณะเฉพาะของมันคือมีพลังอันมหาศาล แต่ทำงานได้ช้าเมื่อเทียบกับ CPU นอกจากนี้ GPU สมัยใหม่ยังมีหน่วยประมวลผลมากกว่า 2,000 หน่วย พวกเขาแตกต่างกันในวิธีการเข้าถึงหน่วยความจำ ตัวอย่างเช่น กราฟิกไม่จำเป็นต้องมีหน่วยความจำแคชขนาดใหญ่ GPU มีแบนด์วิธมากขึ้น ถ้าจะอธิบาย. ด้วยคำพูดง่ายๆจากนั้น CPU จะทำการตัดสินใจตามงานของโปรแกรม และ GPU จะทำการคำนวณที่เหมือนกันหลายอย่าง