Deep Learning illustriert
eBook - ePub

Deep Learning illustriert

Eine anschauliche EinfĂŒhrung in Machine Vision, Natural Language Processing und Bilderzeugung fĂŒr Programmierer und Datenanalysten

Jon Krohn, Grant Beyleveld, Aglaé Bassens, Kathrin Lichtenberg

Share book
  1. 472 pages
  2. German
  3. ePUB (mobile friendly)
  4. Available on iOS & Android
eBook - ePub

Deep Learning illustriert

Eine anschauliche EinfĂŒhrung in Machine Vision, Natural Language Processing und Bilderzeugung fĂŒr Programmierer und Datenanalysten

Jon Krohn, Grant Beyleveld, Aglaé Bassens, Kathrin Lichtenberg

Book details
Book preview
Table of contents
Citations

About This Book

Deep Learning begreifen und einsetzen

  • EinfĂŒhrung in verwandte Themen wie KĂŒnstliche Intelligenz, Machine Learning und Neuronale Netze
  • viele Illustrationen, verstĂ€ndlich erklĂ€rt
  • begleitendes online-Material zum Ausprobieren der ErlĂ€uterungen aus dem Buch (Jupyter-Notebooks)
  • Vorstellung von Bibliotheken (Tensor Flow/Keras, PyTorch)

Deep Learning verĂ€ndert unseren Alltag. Dieser Ansatz fĂŒr maschinelles Lernen erzielt bahnbrechende Ergebnisse in einigen der bekanntesten Anwendungen von heute, in Unternehmen von Google bis Tesla, Facebook bis Apple. Tausende von technischen FachkrĂ€ften und Studenten wollen seine Möglichkeiten einsetzen, aber frĂŒhere BĂŒcher ĂŒber Deep Learning waren oft nicht intuitiv, unzugĂ€nglich und trocken. John Krohn, Grant Beylefeld und AglaĂ© Bassens bieten Ihnen eine einzigartige visuelle, intuitive und verstĂ€ndliche EinfĂŒhrung in Techniken und Anwendungen von Deep Learning. Mit den farbenfrohen Illustrationen und eingĂ€ngigen ErlĂ€uterungen von "Deep Learning illustriert" gelingt Ihnen ein einfacher Zugang zum Aufbau von Deep-Learning-Modellen, und bringt ihnen beim Lernen mehr Spaß.

Der erste Teil des Buches erklĂ€rt, was Deep Learning ist, warum es so allgegenwĂ€rtig geworden ist und wie es mit Konzepten und Terminologien wie kĂŒnstlicher Intelligenz, Machine Learning oder kĂŒnstlichen neuronalen Netzen interagiert. Dabei verwenden die Autoren leicht verstĂ€ndliche Analogien, lebendige Grafiken und viele Beispiele.

Auf dieser Grundlage prĂ€sentieren die Autoren eine praktische Referenz und ein Tutorial zur Anwendung eines breiten Spektrums bewĂ€hrter Techniken des Deep Learning. Die wesentliche Theorie wird mit so wenig Mathematik wie möglich behandelt und mit praktischem Python-Code beleuchtet. Praktische Beispiele zum Ausprobieren, die kostenfrei online verfĂŒgbar sind (Jupyter-Notebooks), machen Ihnen die Theorie begreiflich. So erlangen Sie ein pragmatisches VerstĂ€ndnis aller wichtigen Deep-Learning-AnsĂ€tze und ihrer Anwendungen: Machine Vision, Natural Language Processing, Bilderzeugung und Spielalgorithmen.

Um Ihnen zu helfen, mehr in kĂŒrzerer Zeit zu erreichen, stellen die Autoren mehrere der heute am weitesten verbreiteten und innovativsten Deep-Learning-Bibliotheken vor, darunter:
- TensorFlow und seine High-Level-API, Keras
- PyTorch
- High-Level-Coach, eine TensorFlow-API, die die KomplexitÀt, die typischerweise mit der Entwicklung von Deep Reinforcement Learning-Algorithmen verbunden ist, abstrahiert.

Frequently asked questions

How do I cancel my subscription?
Simply head over to the account section in settings and click on “Cancel Subscription” - it’s as simple as that. After you cancel, your membership will stay active for the remainder of the time you’ve paid for. Learn more here.
Can/how do I download books?
At the moment all of our mobile-responsive ePub books are available to download via the app. Most of our PDFs are also available to download and we're working on making the final remaining ones downloadable now. Learn more here.
What is the difference between the pricing plans?
Both plans give you full access to the library and all of Perlego’s features. The only differences are the price and subscription period: With the annual plan you’ll save around 30% compared to 12 months on the monthly plan.
What is Perlego?
We are an online textbook subscription service, where you can get access to an entire online library for less than the price of a single book per month. With over 1 million books across 1000+ topics, we’ve got you covered! Learn more here.
Do you support text-to-speech?
Look out for the read-aloud symbol on your next book to see if you can listen to it. The read-aloud tool reads text aloud for you, highlighting the text as it is being read. You can pause it, speed it up and slow it down. Learn more here.
Is Deep Learning illustriert an online PDF/ePUB?
Yes, you can access Deep Learning illustriert by Jon Krohn, Grant Beyleveld, Aglaé Bassens, Kathrin Lichtenberg in PDF and/or ePUB format, as well as other popular books in Computer Science & Computer Vision & Pattern Recognition. We have over one million books available in our catalogue for you to explore.

Information

Teil III

Interaktive Anwendungen des Deep Learning

10Maschinelles Sehen
11Natural Language Processing
12Generative Adversarial Networks
13Deep Reinforcement Learning

10Maschinelles Sehen

Willkommen zu Teil III, liebe Leser! In Teil I gaben wir Ihnen einen Überblick ĂŒber spezielle Anwendungen des Deep Learning. Mit der grundlegenden Theorie, die wir anschließend in Teil II behandelt haben, sind Sie nun bestens ausgestattet, um sich einer Reihe von Anwendungen aus verschiedenen Bereichen zu widmen. Dies wird vor allem in Form von Codebeispielen geschehen. In diesem Kapitel untersuchen Sie z.B. Convolutional Neural Networks und setzen diese fĂŒr Aufgaben aus dem Gebiet des maschinellen Sehens (Machine Vision) ein. Außerdem behandeln wir im weiteren Verlauf von Teil III praktische Beispiele fĂŒr:
  • Recurrent Neural Networks zur Verarbeitung natĂŒrlicher Sprache (in Kapitel 11)
  • Generative Adversarial Networks fĂŒr eine visuelle KreativitĂ€t (in Kapitel 12)
  • Deep Reinforcement Learning fĂŒr eine sequenzielle Entscheidungsfindung in komplexen, verĂ€nderlichen Umgebungen (in Kapitel 13)

10.1Convolutional Neural Networks

Ein convolutional, zu Deutsch »faltendes«, neuronales Netz – auch Convolutional Neural Network, ConvNet oder CNN genannt – ist ein kĂŒnstliches neuronales Netz, das ein oder mehrere Konvolutionsschichten oder Convolutional Layers aufweist. Dieser Schichttyp erlaubt es einem Deep-Learning-Modell, effizient rĂ€umliche Muster zu verarbeiten. Wie Sie in diesem Kapitel aus erster Hand erfahren werden, eignen sich solche Netzwerke daher besonders gut fĂŒr Anwendungen aus dem Bereich des maschinellen Sehens oder der Computer Vision.
10.1.1Die zweidimensionale Struktur der visuellen Bilddarstellung
In unseren bisherigen Codebeispielen mit den handgeschriebenen MNIST-Ziffern wandelten wir die Bilddaten in ein eindimensionales Array aus Zahlen um, die wir dann in die vollstĂ€ndig verbundene verborgene Schicht eingaben. Genauer gesagt, begannen wir mit 28×28 Pixel großen Graustufenbildern und verwandelten diese in eindimensionale Arrays mit 784 Elementen.1 Obwohl dieser Schritt im Kontext eines vollstĂ€ndig verbundenen Netzwerks notwendig war (wir mussten die 784 Pixelwerte egalisieren, damit sie jeweils in ein Neuron der ersten verborgenen Schicht eingegeben werden konnten), bringt die Reduzierung eines zweidimensionalen Bildes in eine Dimension einen betrĂ€chtlichen Strukturverlust mit sich. Wenn Sie mit einem Stift eine Ziffer auf Papier zeichnen, stellen Sie sich das Ganze nicht als eine kontinuierliche lineare Abfolge von Pixeln vor, die von oben links nach unten rechts verlaufen. WĂŒrden wir z.B. hier eine MNIST-Ziffer als 784 Pixel langen Strom aus Graustufen ausdrucken, dann wetten wir, dass Sie nicht in der Lage wĂ€ren, die Ziffer zu erkennen. Menschen nehmen visuelle Informationen nĂ€mlich in einer zweidimensionalen Form wahr,2 und unsere FĂ€higkeit, zu erkennen, was wir anschauen, ist von Natur aus mit den rĂ€umlichen Beziehungen zwischen den Formen und Farben verbunden, die wir wahrnehmen.
10.1.2BerechnungskomplexitÀt
Neben dem Verlust der zweidimensionalen Struktur beim Reduzieren eines Bildes mĂŒssen wir noch eine zweite Sache bedenken, wenn wir Bilder in ein vollstĂ€ndig verbundenes Netzwerk leiten: die BerechnungskomplexitĂ€t. Die MNIST-Bilder sind sehr klein – 28×28 Pixel mit nur einem Kanal. (Es gibt nur einen Farb»kanal«, weil MNIST-Ziffern monochromatisch sind; um vollfarbige Bilder darzustellen, sind wenigstens drei KanĂ€le – ĂŒblicherweise Rot, GrĂŒn und Blau – erforderlich.) Wenn man MNIST-Bildinformationen in eine vollstĂ€ndig verbundene Schicht ĂŒbergibt, entspricht dies 785 Parametern pro Neuron: 784 Gewichte fĂŒr jedes der Pixel plus der Bias des Neurons. WĂŒrden wir jedoch ein mĂ€ĂŸig großes Bild verarbeiten – sagen wir ein 200×200 Pixel großes vollfarbiges RGB-Bild3 – nimmt die Anzahl der Parameter ganz drastisch zu. In diesem Fall hĂ€tten wir drei FarbkanĂ€le, jeweils mit 40.000 Pixeln, was insgesamt 120.001 Parametern pro Neuron in einer vollstĂ€ndig verbundenen Schicht entspricht.4 Bei einer bescheidenen Anzahl an Neuronen in der Schicht – sagen wir, 64 – wĂ€ren das fast 8 Millionen Parameter allein fĂŒr die erste verborgene Schicht unseres Netzwerks.5 Außerdem hat das Bild nur 200×200 Pixel – das sind kaum 0,4 MP6, wĂ€hrend die meisten modernen Smartphones Kamerasensoren mit 12 MP oder mehr haben. Im Allgemeinen mĂŒssen Machine-Vision-Aufgaben nicht auf hochaufgelösten Bildern ausgefĂŒhrt werden, um erfolgreich zu sein, aber der Punkt ist doch klar: Bilder können sehr viele Datenpunkte enthalten, und wenn man diese naiverweise in einer vollstĂ€ndig verbundenen Struktur verarbeiten möchte, explodieren die Anforderungen an die RechenkapazitĂ€ten des neuronalen Netzes geradezu.
10.1.3Konvolutionsschichten
Konvolutionsschichten (Convolutional Layers) bestehen aus Gruppen von Kerneln, die auch als Filter oder Filterkernel bezeichnet werden. Jeder dieser Kernel ist ein kleines Fenster (ein sogenanntes Patch), das das Bild von oben links nach unten rechts scannt (technisch au...

Table of contents