Zur Seitennavigation oder mit Tastenkombination für den accesskey-Taste und Taste 1 
Zum Seiteninhalt oder mit Tastenkombination für den accesskey und Taste 2 
Startseite    Anmelden     
Winter 2024/25    Hilfe  Trennstrich  Sitemap  Trennstrich  Impressum  Trennstrich  Datenschutz  Trennstrich  node1  Trennstrich  Switch to english language

Veranstaltung

Rechnerarchitekturen für Deep Learning Anwendungen

  • Funktionen:

Grunddaten

Veranstaltungsart Vorlesung/Übung SWS 5.00
Veranstaltungsnummer 24554 Semester WS 2024/25
Sprache Englisch Studienjahr
Hyperlink Stud.IP Link zu dieser Lehrveranstaltung in Stud.IP

Belegung über StudIP

Status Link
Anmeldeverfahren    Link

Module

1351970 Rechnerarchitekturen für Deep Learning Anwendungen

Termine Gruppe: [unbenannt] iCalendar Export für Outlook

  Tag Zeit Rhythmus Dauer Raum Raum-
plan
Lehrperson Status Bemerkung fällt aus am Max. Teilnehmer/-innen
Einzeltermine anzeigen
iCalendar Export für Outlook
Di. 09:00 bis 11:00 woch 15.10.2024 bis 31.01.2025  A.-Einstein-Str. 26 - HS 001, A.-Einstein-Str. 26 Raumplan Reichenbach,
Rokohl
findet statt Praktikum nach Vereinbarung  
Einzeltermine anzeigen
iCalendar Export für Outlook
Mi. 09:00 bis 11:00 woch 16.10.2024 bis 31.01.2025  A.-Einstein-Str. 26 - HS 001, A.-Einstein-Str. 26 Raumplan Reichenbach,
Rokohl
findet statt    
Gruppe [unbenannt]:
 

Verantwortliche Person

Verantwortliche Person Zuständigkeit
Prof. Dr.-Ing. Marc Reichenbach

Studiengänge

Studiengang/Abschluss/Prüfungsversion Semester Teilnahmeart
Computer Science International, Master (2020) 1. - 3. Semester wahlobligatorisch
Electrical Engineering, Master (2023) 1. - 3. Semester wahlobligatorisch
Electrical Engineering, Master (2024) 1. - 3. Semester wahlobligatorisch
Informatik, Master (2020) 1. - 2. Semester wahlobligatorisch

Zuordnung zu Einrichtungen

Fakultät für Informatik und Elektrotechnik (IEF)

Inhalt

Lerninhalte
  • Einführung in das maschinelle Lernen und neuronale Netze
  • Bewertung von Rechnerarchitekturen
  • Optimierungsverfahren zur Minimierung der Rechenlast für neuronale Netze
  • Nutzung von CPUs, GPUs, TPUs und FPGAs für die effiziente Ausführung neuronaler Netze
  • Neuere Ansätze: Analoges Rechnen, Computation-in-Memory, neuartige Speicherbauelemente

Strukturbaum

Die Veranstaltung wurde 3 mal im Vorlesungsverzeichnis Winter 2024/25 gefunden:
Master Informatik · · · · [+]