Denne læreboken etablerer et teoretisk rammeverk for å forstå dyp læring modeller som er praktisk relevante. Med en tilnærming som henter inspirasjon fra teoretisk fysikk, gir Roberts og Yaida klare og pedagogiske forklaringer på hvordan realistiske dype nevrale nettverk faktisk fungerer. For å gjøre resultater fra den teoretiske fronten tilgjengelige, unngår forfatterne tradisjonelt fokus på skremmende formalitet uten å gå på kompromiss med nøyaktighet. Boken er både enkel og tilgjengelig, og balanserer detaljerte avledninger av nyskapende resultater fra først-prinsipper med innsikt og intuisjon for både teoretikere og praktiske utøvere. Denne helhetlige læreboken er ideell for studenter og forskere som er interessert i kunstig intelligens, med minimale forkunnskaper innen lineær algebra, kalkulus og uformell sannsynlighetsteori. Den kan lett dekke en semesterlang kurs om teorien bak dyp læring. For første gang presenteres de spennende praktiske fremskrittene innen moderne kunstig intelligens på en lettfattelig måte.