Chất lượng hình ảnh khi decode bằng CPU hoặc GPU???!!!

adfadf

New Member
Ðề: Chất lượng hình ảnh khi decode bằng CPU hoặc GPU???!!!

Mình dùng gpu decode (nvidia cuda), vga vẫn mát. Nhìn cái % cpu nó thấp thích thế không biết :D
 

whyworry

New Member
Ðề: Chất lượng hình ảnh khi decode bằng CPU hoặc GPU???!!!

Cảm ơn những ý kiến của các bác thật nhiều! E mở topic này vì chính e cũng phân vân k biết CPU hay GPU decode "Hình Ảnh Đẹp Hơn", nhưng có lẽ tham khảo nhiều ý kiến thì việc CPU hay GPU decode cho chất lượng hình ảnh ngang nhau (CPU & GPU đủ mạnh).
Đúng là việc để GPU decode chỉ có tác dụng giảm tải cho CPU. Trước đây e toàn để CPU decode và CPU luôn load từ 30-60% tùy phim 720p hoặc 1080p. Từ lúc chuyển qua dùng GPU thì CPU chỉ load từ 10-25% (Máy e CPU E7400, VGA Nvidia 9400GT).
Qua những ý kiến của tất cả các bác thì chắc mọi người cũng chọn ra đc cho mình cách "chơi" và nói cho dễ hiểu là mỗi người mỗi ý thích cũng như tùy vào tình trạng máy hiện có để chọn đc cách hợp lý nhất.
Chúc các bác vui!!!
 

nghe&nhin

Member
Ðề: Chất lượng hình ảnh khi decode bằng CPU hoặc GPU???!!!

anyway, em phản biện lại các bác để cho vấn đề nó vỡ ra mà thui ==> tại thời điểm hiện nay để xem HD thì đầu tư CPU mạnh là ko cần thiết và lãng phí.
đó cũng là hướng đến mục tiêu cuối cùng: sự đầu tư mang lại hiệu quả cao nhất
chúc các bác luôn vui khỏe để theo đuổi sự nghiệp HD :D
Thân
 

HDHP

New Member
Ðề: Chất lượng hình ảnh khi decode bằng CPU hoặc GPU???!!!

anyway, em phản biện lại các bác để cho vấn đề nó vỡ ra mà thui ==> tại thời điểm hiện nay để xem HD thì đầu tư CPU mạnh là ko cần thiết và lãng phí.
đó cũng là hướng đến mục tiêu cuối cùng: sự đầu tư mang lại hiệu quả cao nhất
chúc các bác luôn vui khỏe để theo đuổi sự nghiệp HD :D
Thân

túm lại là :Ngon+Bổ+Rẻ
 

whyworry

New Member
Ðề: Chất lượng hình ảnh khi decode bằng CPU hoặc GPU???!!!

anyway, em phản biện lại các bác để cho vấn đề nó vỡ ra mà thui ==> tại thời điểm hiện nay để xem HD thì đầu tư CPU mạnh là ko cần thiết và lãng phí.
đó cũng là hướng đến mục tiêu cuối cùng: sự đầu tư mang lại hiệu quả cao nhất

Rất chính xác. E vừa bị quả "lạm phát" hơn 300%. Mới đầu chỉ định nâng nhẹ CPU và VGA để chơi 1080p. Dự định ban đầu chỉ hết khoảng 130$, cuối cùng lạm phát thành cái máy mới. Hãi!!!
http://hdvietnam.com/diendan/showthread.php?t=6914
http://hdvietnam.com/diendan/showthread.php?t=7148
 

tien113

New Member
Ðề: Chất lượng hình ảnh khi decode bằng CPU hoặc GPU???!!!

xem bằng gpu, mà cụ thể là dxva sẽ bị tình trạng kém tương thít, bị vài lần là nản lun, k mún dùng dxva nữa...
 

nvmy

Well-Known Member
Ðề: Chất lượng hình ảnh khi decode bằng CPU hoặc GPU???!!!

anyway, em phản biện lại các bác để cho vấn đề nó vỡ ra mà thui ==> tại thời điểm hiện nay để xem HD thì đầu tư CPU mạnh là ko cần thiết và lãng phí.
đó cũng là hướng đến mục tiêu cuối cùng: sự đầu tư mang lại hiệu quả cao nhất
chúc các bác luôn vui khỏe để theo đuổi sự nghiệp HD :D
Thân

Hi hi , topic đi lạc hơi xa, từ Chất lượng hình ảnh khi decode bằng CPU hoặc GPU, xiên sang Dùng CPU hay GPU cái nào tốn điện hơn, rồi lại chốt ở Sự đầu tư mang lại hiệu quả cao nhất.

tại thời điểm hiện nay để xem HD thì đầu tư CPU mạnh là ko cần thiết và lãng phí.
----> Cám ơn bác nhé, bác nói hay quá:)

Dùng CPU hay GPU cái nào tốn điện hơn ---> Cái chủ đề này có bác nào tìm hiểu sâu thì hay này.
 

nghe&nhin

Member
Ðề: Chất lượng hình ảnh khi decode bằng CPU hoặc GPU???!!!

Hi hi , topic đi lạc hơi xa, từ Chất lượng hình ảnh khi decode bằng CPU hoặc GPU, xiên sang Dùng CPU hay GPU cái nào tốn điện hơn, rồi lại chốt ở Sự đầu tư mang lại hiệu quả cao nhất.

----> Cám ơn bác nhé, bác nói hay quá:)

Dùng CPU hay GPU cái nào tốn điện hơn ---> Cái chủ đề này có bác nào tìm hiểu sâu thì hay này.
cảm ơn bác đã quá khen :">
tất cả vấn đề nêu ra em đã reply rùi mà, bác làm e post đi post lại mệt wá
1.về chất lượng decode CPU><GPU
chất lượng 5-5
2.CPU or GPU cái nào tốn điện hơn
decode = CPU load cao nóng hơn, quạt kêu ồn hơn, tốn điện hơn, mà điện lên giá roài
vè em đã dẫn chứng cụ thể ở post #10 và #15 trên hệ thống của em, phiền bác đọc lại nhé
3.cái em chốt hạ là để những bác newbie có hướng đtư hợp lý thôi chứ em ko có ý nói bác đâu ạh
thực tế ntn em bảo thế ấy chẳng thêm chẳng bớt j cả, còn bác chẳng chịu thì mời bác quá bộ đến nhà e, e sẽ demo cho bác thấy vậy
 

mitiopla

New Member
Ðề: Chất lượng hình ảnh khi decode bằng CPU hoặc GPU???!!!

INTEL Core 2 Quad - Q6700 (2.66GHz) va Geforce 8600 theo các bác thì nên decode bằng em nào ah? Em thì dùng CPU để decode. 1080 thì load khoảng 25%-40% CPU ah. Còn 1 em lapptop nữa chạy P8400 2.2Gh, Geforce 9300M, xem film trên màn hình laptop thì mượt mà Ok nhưng khi nối (HDMI) lên con Pana Plasma PV80H thì thỉnh thoảng xuất hiện những đường cắt ngang màn hình. Đặc biệt là ở những đạon quay cận cảnh. Em nên làm sao cho nó hết các bác??

máy em cũng vậy. ai cho em biết lý do và cách khắc phục với. thank
 

nvmy

Well-Known Member
Ðề: Chất lượng hình ảnh khi decode bằng CPU hoặc GPU???!!!

cảm ơn bác đã quá khen :">
tất cả vấn đề nêu ra em đã reply rùi mà, bác làm e post đi post lại mệt wá
1.về chất lượng decode CPU><GPU

2.CPU or GPU cái nào tốn điện hơn

vè em đã dẫn chứng cụ thể ở post #10 và #15 trên hệ thống của em, phiền bác đọc lại nhé
3.cái em chốt hạ là để những bác newbie có hướng đtư hợp lý thôi chứ em ko có ý nói bác đâu ạh
thực tế ntn em bảo thế ấy chẳng thêm chẳng bớt j cả, còn bác chẳng chịu thì mời bác quá bộ đến nhà e, e sẽ demo cho bác thấy vậy

1. về chất lượng decode CPU><GPU

ý kiến của riêng em cho rằng: card màn hình có nhiều loại, cấu trúc chip khác nhau, khả năng sức mạnh xử lý đồ họa khác nhau, giá tiền khác nhau... ----> Suy ra, nếu cùng 1 CPU, có thể hình ảnh xuất ra của các loại VGA ghép cùng CPU đó có khác biệt.
Tuy nhiên̉ đây không phải ai cũng có đủ điều kiện thử và so sánh hình ảnh của nhiều loại VGA nên thực sự khó nói lắm. Ví dụ: bác dùng AMD 5000+ decode và so sánh với hình ảnh screenshot của GF 8500 decode. Kết quả là hình ảnh tương tự nhau. Vậy bác đã thử gắn GTX 260 hoặc 7300GT vào xem sao chưa?

2. CPU or GPU cái nào tốn điện hơn

Cũng giống như trên vậy. Cứ dựa vào cái bảng tính công suất CPU và GPU mà em đã dẫn (chưa biết chính xác đến đâu) nếu có cấu hình Pc như của em thì chắc bác không bao giờ để 8800GT decode. Ngược lại nếu em có cấu hình y chang của bác, em cũng có thể sẽ cài CoreAVC chạy CUDA.
Nói là "có thể" là vì có khi do lười, và đối với cấu hình thế này (E4600 + 7300GT) em bằng lòng với CPU load 30-40% mà cứ để chạy K-lite ffshow chứ chả buồn dùng CoreAVC:

configcopy.jpg


Có nghĩa là, mức độ tiêu tốn điên năng sẽ thay đổi tùy theo cấu hình và tương quan giữa CPU và GPU là loại nào, chứ không nói chung chung là thứ nào tiêu tốn điện năng hơn 1 cách tuyệt đối.

3.
cái em chốt hạ là để những bác newbie có hướng đtư hợp lý thôi chứ em ko có ý nói bác đâu ạh
Hoàn toàn nhất trí với bác như vậy và em bót bài cũng là để tìm hiểu học hỏi thêm kiến thức và kinh nghiệm của mọi người như bác.
:-bd
 

sieucan

Active Member
Ðề: Chất lượng hình ảnh khi decode bằng CPU hoặc GPU???!!!

Bác giải thích rõ hơn được không?
Em thì chả biết chúng nó encode thế nào, nhưng căn cứ vào lý thuyết trên mạng đã dẫn ở trên và thực tế sử dụng (Em dùng 1 CPU E8400 và 1 VGA 8800 GT 512Mb) thì em hiểu là:

- E8400 nếu chích đến 1.36V thì xơi 65W và nhiệt độ là 72.4 độ. Tức là hoạt động cường độ cao và rất dễ toi.
Có ai dùng như vậy không? CPU em để default, không OC, nhiệt độ khi xem phim hay chơi game nặng chỉ bằng 1 nửa nhiệt độ trên, nghĩa là khoảng 40 độ C. Suy ra CS tiêu thụ cũng chỉ bằng phân nửa con số 65W. (không biết có suy cái kiểu này được không?)

- 8800 GT hoạt động max xử lý 3D xơi 78W

Đấy là Tây nó bẩu thế. Còn thực tế em dùng DXVA thử khoảng 1 tháng, với tần suất sử dụng như những tháng trước. Tháng đó lòi ra hơn 100k. Ko chính xác lắm nhưng chắc chắn phải có "công sức" đáng kể của cái VGA.:ar!

Em kết luận là: nếu CPU đủ mạnh để chơi được 1080p thì cứ để CPU nó xử cho lành. Không Đê ích Đê eo, Cu đa cu điếc gì sất. Tốn điện và nóng.

Còn đối với CPU yếu thì đương nhiên nên dùng VGA hỗ trợ. Với 8600GT, như ở bảng trên tiêu hết 52W, hay cái HD 4670 tiêu hết có 47 W, rất hợp lý.

Nhưng còn chất lượng hình ảnh thế nào, em chịu~X(

8800GT nổi tiếng là nóng và ăn điện
E8400 max temp 72,4C -> quá 72,4 thì nó die
image010.png

Nói đơn giản và dễ hiểu CPU cũng như GPU càng hoạt động nhiều thì càng nóng, bạn nvmy thử so sánh nhiệt độ của GPU lúc decode = software và decode = software(CPU).
Bạn dùng Nv nên không có công cụ xem Gpu Activities(GPU usage) như Ati nếu không sẽ dễ hình dung hơn
3C90A526A80C64DC895B2404B9C4EAB1703463BE_large.jpg
 
Chỉnh sửa lần cuối:

36l11438

Member
Ðề: Chất lượng hình ảnh khi decode bằng CPU hoặc GPU???!!!

em sao em play hd 1080 mà cuda không hoạt động? cuda chỉ hoạt động ở hd720 thôi á. giúp em cách fix với ạ!!!
 

pirate

New Member
Ðề: Chất lượng hình ảnh khi decode bằng CPU hoặc GPU???!!!

1. về chất lượng decode CPU><GPU

ý kiến của riêng em cho rằng: card màn hình có nhiều loại, cấu trúc chip khác nhau, khả năng sức mạnh xử lý đồ họa khác nhau, giá tiền khác nhau... ----> Suy ra, nếu cùng 1 CPU, có thể hình ảnh xuất ra của các loại VGA ghép cùng CPU đó có khác biệt.
Tuy nhiên̉ đây không phải ai cũng có đủ điều kiện thử và so sánh hình ảnh của nhiều loại VGA nên thực sự khó nói lắm. Ví dụ: bác dùng AMD 5000+ decode và so sánh với hình ảnh screenshot của GF 8500 decode. Kết quả là hình ảnh tương tự nhau. Vậy bác đã thử gắn GTX 260 hoặc 7300GT vào xem sao chưa?

2. CPU or GPU cái nào tốn điện hơn

Cũng giống như trên vậy. Cứ dựa vào cái bảng tính công suất CPU và GPU mà em đã dẫn (chưa biết chính xác đến đâu) nếu có cấu hình Pc như của em thì chắc bác không bao giờ để 8800GT decode. Ngược lại nếu em có cấu hình y chang của bác, em cũng có thể sẽ cài CoreAVC chạy CUDA.
Nói là "có thể" là vì có khi do lười, và đối với cấu hình thế này (E4600 + 7300GT) em bằng lòng với CPU load 30-40% mà cứ để chạy K-lite ffshow chứ chả buồn dùng CoreAVC:

configcopy.jpg


Có nghĩa là, mức độ tiêu tốn điên năng sẽ thay đổi tùy theo cấu hình và tương quan giữa CPU và GPU là loại nào, chứ không nói chung chung là thứ nào tiêu tốn điện năng hơn 1 cách tuyệt đối.

3.
Hoàn toàn nhất trí với bác như vậy và em bót bài cũng là để tìm hiểu học hỏi thêm kiến thức và kinh nghiệm của mọi người như bác.
:-bd

Sau tui chỉnh giống như vậy lại coi không được??? có thể chỉ giáo không các bro
 
Ðề: Chất lượng hình ảnh khi decode bằng CPU hoặc GPU???!!!

vậy nói chung, thì chất lượng sao mấy bác? CPU mình load Full HD cũng chỉ có 10%. VGA của mình thì la 675M. Nên thằng nào tốn điện mình ko quan tâm, chỉ cần biết là cái nào chất lượng tốt hơn thôi. AE ai đã từng test chỉ dùm nhé
 
Bên trên