Zum Inhalt springen

Bachelorstudium in Artificial Intelligence

An der Johannes Kepler Universität Linz ist es seit 2019 möglich, ein Bachelorstudium in Artificial Intelligence zu beginnen. Es ist eines der ersten AI-Studien Europas und in Österreich gibt es kein vergleichbares Studium. Dabei soll man lernen, wie Künstliche Intelligenz der Gesellschaft dienen kann und wo die Gefahren liegen. Dazu gehören eine ausgewogene Grundausbildung in Mathematik und Informatik, aber auch spezifischen Themen der Artificial Intelligence wie maschinellem Lernen, Wissensrepräsentation und Sprachverarbeitung werden vermittelt.

Das Studium soll zu großen Teilen auch als Fernstudium ermöglicht werden.

Studieninhalte

  • Computer Science: Python Programmierung und die Grundlagen über Algorithmen und Datenstrukturen.
  • Mathematics: Alle für Artificial Intelligence relevanten mathematischen Grundlagen.
  • AI Basics and Practical Work: In Hands-On-Kursen und Praktika werden Grundkompetenzen und Fertigkeiten an realen Problemstellungen erlernt.
  • AI and Society: Wie intelligent können Maschinen sein und wo werden sie im Alltag eingesetzt? Hier geht es um die Bedeutung der Artificial Intelligence für die Gesellschaft und wie intelligente Systeme in Interaktion mit den Menschen stehen.
  • Data Science: Mit Techniken aus Mathematik, Statistik und Informatik wird Wissen aus Daten erzeugt und man lernt Methoden der Sprachverarbeitung und der Signalverarbeitung.
  • Knowledge Representation and Reasoning: Wie kann Wissen so in eine Maschine integriert werden, dass diese Schlüsse daraus ziehen oder Probleme lösen kann?
  • Machine Learning and Perception: Wie können Maschinen aus Daten und Erfahrungen für zukünftige Aufgabenstellungen lernen? Wie nehmen Maschinen ihre Umgebung wahr und lernen sie zu verstehen? Können Maschinen mehr lernen als Menschen?

Alle Informationen am Institut für Artificial Intelligence in Linz:
Link: https://www.jku.at/studium/studienarten/bachelordiplom/ba-artificial-intelligence/


Beispiel für die Forschung

Rekabsaz & Schedl (2020) haben gezeigt, dass Entscheidungen von Maschinen mittels Künstlicher Intelligenz sich in der Vergangenheit als diskriminierend oder rassistisch erwiesen haben, wobei besonders die Ergebnisse von Suchmaschinen, die Deep Learning nutzen, sexistisch verzerrt sind. Das liegt daran, dass die Algorithmen auf Daten zugreifen, oft mit Vorurteilen belastet sind, denn so werden Menschen mit Migrationshintergrund als weniger kreditwürdig eingestuft, von Polizeicomputern häufiger verdächtigt oder sie bekommen von sozialen Plattformen Angebote für schlechtere Jobs oder Wohnungen. In der Studie wurden Modelle bzw. Algorithmen analysiert, die in Suchmaschinen verwendet werden und die auf realen Suchanfragen basieren. Man teilte dabei die Suchfragen in zwei Gruppen: Einerseits solche, die geschlechtsneutral sind und Antworten ohne Gender-Bias lieferten, die andere Gruppe bildeten Anfragen, die zumindest im Englischen nicht explizit geschlechtsspezifisch sind, etwa die Frage nach dem Einkommen einer Pflegekraft (der Begriff „nurse“ steht im Englischen sowohl für Krankenpfleger als auch für Krankenpflegerin) oder die Frage nach einem Synonym für „schön“. Obwohl diese Fragen geschlechtsneutral formuliert waren, warfen die Suchmaschinen vor allem Antworten im Zusammenhang mit Frauen aus, während Männer erst weit hinten vorkamen, andererseits liefert etwa die Suche nach CEO, also den Geschäftsführer eines Unternehmens, oder Programmierern überwiegend männlich konnotierte Antworten. Es hat sich also gezeigt, dass gerade die neuesten Deep Learning-Algorithmen eine besonders ausgeprägte geschlechtsspezifische Verzerrung verursachen, wobei solche Algorithmen von zwei der größten Suchmaschinen eingesetzt werden. Ursache für die Verzerrung ist dabei, dass jene Systeme, die Deep Learning nutzen, nicht nur nach dem Suchbegriff alleine suchen, sondern auch ähnliche Begriffe oder Themenbereiche ebenfalls berücksichtigen. Im Fall „nurse“ suchen sie etwa auch nach „matron“ (Oberschwester), wodurch sie zunehmend zur weiblichen Interpretation der Suchanfrage tendieren. Diese von Menschen gesammelten und aufbereiteten Daten, auf denen die KI basiert, beinhalten zwar bereits diese Tendenzen, doch die Suche mit Hilfe der Künstlichen Intelligenz verstärkt diesen Effekt noch. Zwar wurde in der Untersuchung nur der Geschlechter-Bias erhoben, doch dürften solche Effekte auch in anderen Bereichen wie Alter, ethnischer Zugehörigkeit oder Religion vorkommen. Es ist daher wichtig, sich die Verzerrung von solchen automatischen Ergebnissen durch menschliche Vorurteile bewusst zu machen und bereits bei der Programmierung der Algorithmen zu berücksichtigen.

Literatur

Rekabsaz, Navid & Schedl, Markus (2020). Do Neural Ranking Models Intensify Gender Bias?
WWW: https://arxiv.org/pdf/2005.00372.pdf (20-06-20)


Nachricht ::: Stangls Bemerkungen ::: Stangls Notizen ::: Impressum
Datenschutzerklärung ::: © Werner Stangl :::





Index