Die Kompression erfolgt auf mehreren Ebenen und teilweise schon bei der Aufnahme vor der Wandlung in Digitalsignale. Einige Instrumente werden immer komprimiert, ein akustisches Klavier hat z.B. eine über alles Dynamik von ca. 112dB, das kann eine CD gar nicht wiedergeben, da ist selbst theoretisch schon bei 92,4dB Schluss.
In wirklich guten Studios wird deswegen mit 24 Bit und teilweise sogar mit 32 Bit Wandlern und mindestens 48kHz, oft sogar 96kHz Auflösung gearbeitet und die Daten werden später herunter gemischt auf 16 Bit und 22kHz (mehr geht nicht bei 44,1kHz Sampling Rate, Grund:
Shannon Theorem). Damit das funktioniert, muss schon komprimiert werden. Danach kommt die allgemeine Dynamikkompression für die erwünschte "Dichte" (was bei niedriger effektiver Dynamik für eine gesteigerte Lautheitswahrnehmung aber auch Sch...lechten Klang sorgt).
Eine Sache darf man aber zusätzlich nicht vergessen: Am Anfang der Kette steht bei akustischen Instrumenten und natürlich bei Stimmen
immer Analogtechnik und wenn die nichts taugt, nutzt die gesamte hohe Samplingrate oder Bitauflösung nichts.
PS: bei MP3s wird nicht nur weggeschnitten sondern nach ca. 6 ms nach dem Start des Einschwingvorgangs das komplette Signal auf 1-3 Basisfrequenzen heruntergerechnet (Grundwelle und bei guter Codierung
eventuell noch 1-2 Oberwellen), die ganze Feinmodulation in die Tonne getreten und nur noch die Sustain und Release Lautstärkekurve drüber gelegt. Dass wir das überhaupt noch als Musik erkennen können, grenzt an ein mittlerwes Wunder und liegt an der phänomenalen Rekonstruktionsfähigkeit unseres Gehirns, denn bei einer MP3 ist 90% dessen, was wir zu hören glauben, in Wahrheit gar nicht da sondern wird nachgebildet - man kann also sagen, dass wir uns nur einbilden, dass wir das "hören", was wir hören.