Desde su origen en EEUU, la novela y el cine negro documentaron la crónica más sombría de los acontecimientos sociales, económicos y políticos acaecidos en el mundo. A partir de la II Guerra Mundial, escritores y directores europeos, especialmente en Francia, Gran Bretaña, Italia y España, acogieron...