Op mijn desktop zou ik theoretisch verschil kunnen hebben met een GTX nVidia 275 uit 2009, maar daar is het geen probleem om de nVidia kaart volledig los te laten gaan.
Op de laptopjes kan ik de nVidia volledig los laten gaan maar dan gaat het energieverbruik bijzonder omhoog, bovendien wil ik graag een koel computertje bij de laptopjes.
Omdat ik alleen nVidia en nVidia met Optimus heb, kan ik alleen ervaring geven dat dit voor mij nodig was bij Intel en nVidia.
Ik zal eens kijken wat een AMD laptopje met APU doet. Op een desktop heb ik nooit grafische problemen ervonden, en ik denk dat nVidia driver Closed Source vooral op dit moment getest is voor desktops.
De nVidia driver zou bijvoorbeeld alleen slechts een fractie van een seconde maximaal energie mogen gebruiken als ik over een pagina scroll, maar nVidia blijft op Linux laptops bij mij 26 seconden in maximaal vermogen zodra ik User Interface interactie doe.
De nVidia blob is niet beheersbaar om op dit moment te voldoen aan fractie van seconden maximaal te gaan bij gebruiker interactie.
Chromium gaat binnenkort VDPAU en VL-API ondersteunen, en dat gaat betekenen dat laptopjes veel zuiniger kunnen worden. Alhoewel H264 in VLC player makkelijk bijvoorbeeld 2 beeldschermen op 1080p afspeelt op een laptop uit 2008 en een laptop uit 2012 waarbij het nVidia panel ook daadwerkelijk video decoder engine use op tientallen procenten laat zien, is er in browser land nog veel te behalen.
Hardware decoding kan laptops makkelijk 4k af laten spelen op 50 MegaBit terwijl het op een uitsluitend CPU Core i7 een diashow is met de komende video codec en de H265 opvolger van H264.
Op desktop is het probleemloos om energie te gebruiken.
Vanwege 2 schermen op 1080p heb ik Kubuntu nodig omdat KDE een zeer goede Window Placement ingebouwd heeft.