Deep Learning illustriert
eBook - ePub

Deep Learning illustriert

Eine anschauliche EinfĂŒhrung in Machine Vision, Natural Language Processing und Bilderzeugung fĂŒr Programmierer und Datenanalysten

Jon Krohn, Grant Beyleveld, Aglaé Bassens, Kathrin Lichtenberg

Partager le livre
  1. 472 pages
  2. German
  3. ePUB (adapté aux mobiles)
  4. Disponible sur iOS et Android
eBook - ePub

Deep Learning illustriert

Eine anschauliche EinfĂŒhrung in Machine Vision, Natural Language Processing und Bilderzeugung fĂŒr Programmierer und Datenanalysten

Jon Krohn, Grant Beyleveld, Aglaé Bassens, Kathrin Lichtenberg

DĂ©tails du livre
Aperçu du livre
Table des matiĂšres
Citations

À propos de ce livre

Deep Learning begreifen und einsetzen

  • EinfĂŒhrung in verwandte Themen wie KĂŒnstliche Intelligenz, Machine Learning und Neuronale Netze
  • viele Illustrationen, verstĂ€ndlich erklĂ€rt
  • begleitendes online-Material zum Ausprobieren der ErlĂ€uterungen aus dem Buch (Jupyter-Notebooks)
  • Vorstellung von Bibliotheken (Tensor Flow/Keras, PyTorch)

Deep Learning verĂ€ndert unseren Alltag. Dieser Ansatz fĂŒr maschinelles Lernen erzielt bahnbrechende Ergebnisse in einigen der bekanntesten Anwendungen von heute, in Unternehmen von Google bis Tesla, Facebook bis Apple. Tausende von technischen FachkrĂ€ften und Studenten wollen seine Möglichkeiten einsetzen, aber frĂŒhere BĂŒcher ĂŒber Deep Learning waren oft nicht intuitiv, unzugĂ€nglich und trocken. John Krohn, Grant Beylefeld und AglaĂ© Bassens bieten Ihnen eine einzigartige visuelle, intuitive und verstĂ€ndliche EinfĂŒhrung in Techniken und Anwendungen von Deep Learning. Mit den farbenfrohen Illustrationen und eingĂ€ngigen ErlĂ€uterungen von "Deep Learning illustriert" gelingt Ihnen ein einfacher Zugang zum Aufbau von Deep-Learning-Modellen, und bringt ihnen beim Lernen mehr Spaß.

Der erste Teil des Buches erklĂ€rt, was Deep Learning ist, warum es so allgegenwĂ€rtig geworden ist und wie es mit Konzepten und Terminologien wie kĂŒnstlicher Intelligenz, Machine Learning oder kĂŒnstlichen neuronalen Netzen interagiert. Dabei verwenden die Autoren leicht verstĂ€ndliche Analogien, lebendige Grafiken und viele Beispiele.

Auf dieser Grundlage prĂ€sentieren die Autoren eine praktische Referenz und ein Tutorial zur Anwendung eines breiten Spektrums bewĂ€hrter Techniken des Deep Learning. Die wesentliche Theorie wird mit so wenig Mathematik wie möglich behandelt und mit praktischem Python-Code beleuchtet. Praktische Beispiele zum Ausprobieren, die kostenfrei online verfĂŒgbar sind (Jupyter-Notebooks), machen Ihnen die Theorie begreiflich. So erlangen Sie ein pragmatisches VerstĂ€ndnis aller wichtigen Deep-Learning-AnsĂ€tze und ihrer Anwendungen: Machine Vision, Natural Language Processing, Bilderzeugung und Spielalgorithmen.

Um Ihnen zu helfen, mehr in kĂŒrzerer Zeit zu erreichen, stellen die Autoren mehrere der heute am weitesten verbreiteten und innovativsten Deep-Learning-Bibliotheken vor, darunter:
- TensorFlow und seine High-Level-API, Keras
- PyTorch
- High-Level-Coach, eine TensorFlow-API, die die KomplexitÀt, die typischerweise mit der Entwicklung von Deep Reinforcement Learning-Algorithmen verbunden ist, abstrahiert.

Foire aux questions

Comment puis-je résilier mon abonnement ?
Il vous suffit de vous rendre dans la section compte dans paramĂštres et de cliquer sur « RĂ©silier l’abonnement ». C’est aussi simple que cela ! Une fois que vous aurez rĂ©siliĂ© votre abonnement, il restera actif pour le reste de la pĂ©riode pour laquelle vous avez payĂ©. DĂ©couvrez-en plus ici.
Puis-je / comment puis-je télécharger des livres ?
Pour le moment, tous nos livres en format ePub adaptĂ©s aux mobiles peuvent ĂȘtre tĂ©lĂ©chargĂ©s via l’application. La plupart de nos PDF sont Ă©galement disponibles en tĂ©lĂ©chargement et les autres seront tĂ©lĂ©chargeables trĂšs prochainement. DĂ©couvrez-en plus ici.
Quelle est la différence entre les formules tarifaires ?
Les deux abonnements vous donnent un accĂšs complet Ă  la bibliothĂšque et Ă  toutes les fonctionnalitĂ©s de Perlego. Les seules diffĂ©rences sont les tarifs ainsi que la pĂ©riode d’abonnement : avec l’abonnement annuel, vous Ă©conomiserez environ 30 % par rapport Ă  12 mois d’abonnement mensuel.
Qu’est-ce que Perlego ?
Nous sommes un service d’abonnement Ă  des ouvrages universitaires en ligne, oĂč vous pouvez accĂ©der Ă  toute une bibliothĂšque pour un prix infĂ©rieur Ă  celui d’un seul livre par mois. Avec plus d’un million de livres sur plus de 1 000 sujets, nous avons ce qu’il vous faut ! DĂ©couvrez-en plus ici.
Prenez-vous en charge la synthÚse vocale ?
Recherchez le symbole Écouter sur votre prochain livre pour voir si vous pouvez l’écouter. L’outil Écouter lit le texte Ă  haute voix pour vous, en surlignant le passage qui est en cours de lecture. Vous pouvez le mettre sur pause, l’accĂ©lĂ©rer ou le ralentir. DĂ©couvrez-en plus ici.
Est-ce que Deep Learning illustriert est un PDF/ePUB en ligne ?
Oui, vous pouvez accĂ©der Ă  Deep Learning illustriert par Jon Krohn, Grant Beyleveld, AglaĂ© Bassens, Kathrin Lichtenberg en format PDF et/ou ePUB ainsi qu’à d’autres livres populaires dans Computer Science et Computer Vision & Pattern Recognition. Nous disposons de plus d’un million d’ouvrages Ă  dĂ©couvrir dans notre catalogue.

Informations

Éditeur
dpunkt.verlag
Année
2020
ISBN
9783960887522

Teil III

Interaktive Anwendungen des Deep Learning

10Maschinelles Sehen
11Natural Language Processing
12Generative Adversarial Networks
13Deep Reinforcement Learning

10Maschinelles Sehen

Willkommen zu Teil III, liebe Leser! In Teil I gaben wir Ihnen einen Überblick ĂŒber spezielle Anwendungen des Deep Learning. Mit der grundlegenden Theorie, die wir anschließend in Teil II behandelt haben, sind Sie nun bestens ausgestattet, um sich einer Reihe von Anwendungen aus verschiedenen Bereichen zu widmen. Dies wird vor allem in Form von Codebeispielen geschehen. In diesem Kapitel untersuchen Sie z.B. Convolutional Neural Networks und setzen diese fĂŒr Aufgaben aus dem Gebiet des maschinellen Sehens (Machine Vision) ein. Außerdem behandeln wir im weiteren Verlauf von Teil III praktische Beispiele fĂŒr:
  • Recurrent Neural Networks zur Verarbeitung natĂŒrlicher Sprache (in Kapitel 11)
  • Generative Adversarial Networks fĂŒr eine visuelle KreativitĂ€t (in Kapitel 12)
  • Deep Reinforcement Learning fĂŒr eine sequenzielle Entscheidungsfindung in komplexen, verĂ€nderlichen Umgebungen (in Kapitel 13)

10.1Convolutional Neural Networks

Ein convolutional, zu Deutsch »faltendes«, neuronales Netz – auch Convolutional Neural Network, ConvNet oder CNN genannt – ist ein kĂŒnstliches neuronales Netz, das ein oder mehrere Konvolutionsschichten oder Convolutional Layers aufweist. Dieser Schichttyp erlaubt es einem Deep-Learning-Modell, effizient rĂ€umliche Muster zu verarbeiten. Wie Sie in diesem Kapitel aus erster Hand erfahren werden, eignen sich solche Netzwerke daher besonders gut fĂŒr Anwendungen aus dem Bereich des maschinellen Sehens oder der Computer Vision.
10.1.1Die zweidimensionale Struktur der visuellen Bilddarstellung
In unseren bisherigen Codebeispielen mit den handgeschriebenen MNIST-Ziffern wandelten wir die Bilddaten in ein eindimensionales Array aus Zahlen um, die wir dann in die vollstĂ€ndig verbundene verborgene Schicht eingaben. Genauer gesagt, begannen wir mit 28×28 Pixel großen Graustufenbildern und verwandelten diese in eindimensionale Arrays mit 784 Elementen.1 Obwohl dieser Schritt im Kontext eines vollstĂ€ndig verbundenen Netzwerks notwendig war (wir mussten die 784 Pixelwerte egalisieren, damit sie jeweils in ein Neuron der ersten verborgenen Schicht eingegeben werden konnten), bringt die Reduzierung eines zweidimensionalen Bildes in eine Dimension einen betrĂ€chtlichen Strukturverlust mit sich. Wenn Sie mit einem Stift eine Ziffer auf Papier zeichnen, stellen Sie sich das Ganze nicht als eine kontinuierliche lineare Abfolge von Pixeln vor, die von oben links nach unten rechts verlaufen. WĂŒrden wir z.B. hier eine MNIST-Ziffer als 784 Pixel langen Strom aus Graustufen ausdrucken, dann wetten wir, dass Sie nicht in der Lage wĂ€ren, die Ziffer zu erkennen. Menschen nehmen visuelle Informationen nĂ€mlich in einer zweidimensionalen Form wahr,2 und unsere FĂ€higkeit, zu erkennen, was wir anschauen, ist von Natur aus mit den rĂ€umlichen Beziehungen zwischen den Formen und Farben verbunden, die wir wahrnehmen.
10.1.2BerechnungskomplexitÀt
Neben dem Verlust der zweidimensionalen Struktur beim Reduzieren eines Bildes mĂŒssen wir noch eine zweite Sache bedenken, wenn wir Bilder in ein vollstĂ€ndig verbundenes Netzwerk leiten: die BerechnungskomplexitĂ€t. Die MNIST-Bilder sind sehr klein – 28×28 Pixel mit nur einem Kanal. (Es gibt nur einen Farb»kanal«, weil MNIST-Ziffern monochromatisch sind; um vollfarbige Bilder darzustellen, sind wenigstens drei KanĂ€le – ĂŒblicherweise Rot, GrĂŒn und Blau – erforderlich.) Wenn man MNIST-Bildinformationen in eine vollstĂ€ndig verbundene Schicht ĂŒbergibt, entspricht dies 785 Parametern pro Neuron: 784 Gewichte fĂŒr jedes der Pixel plus der Bias des Neurons. WĂŒrden wir jedoch ein mĂ€ĂŸig großes Bild verarbeiten – sagen wir ein 200×200 Pixel großes vollfarbiges RGB-Bild3 – nimmt die Anzahl der Parameter ganz drastisch zu. In diesem Fall hĂ€tten wir drei FarbkanĂ€le, jeweils mit 40.000 Pixeln, was insgesamt 120.001 Parametern pro Neuron in einer vollstĂ€ndig verbundenen Schicht entspricht.4 Bei einer bescheidenen Anzahl an Neuronen in der Schicht – sagen wir, 64 – wĂ€ren das fast 8 Millionen Parameter allein fĂŒr die erste verborgene Schicht unseres Netzwerks.5 Außerdem hat das Bild nur 200×200 Pixel – das sind kaum 0,4 MP6, wĂ€hrend die meisten modernen Smartphones Kamerasensoren mit 12 MP oder mehr haben. Im Allgemeinen mĂŒssen Machine-Vision-Aufgaben nicht auf hochaufgelösten Bildern ausgefĂŒhrt werden, um erfolgreich zu sein, aber der Punkt ist doch klar: Bilder können sehr viele Datenpunkte enthalten, und wenn man diese naiverweise in einer vollstĂ€ndig verbundenen Struktur verarbeiten möchte, explodieren die Anforderungen an die RechenkapazitĂ€ten des neuronalen Netzes geradezu.
10.1.3Konvolutionsschichten
Konvolutionsschichten (Convolutional Layers) bestehen aus Gruppen von Kerneln, die auch als Filter oder Filterkernel bezeichnet werden. Jeder dieser Kernel ist ein kleines Fenster (ein sogenanntes Patch), das das Bild von oben links nach unten rechts scannt (technisch au...

Table des matiĂšres