Zur Hauptnavigation springen [Alt]+[0] Zum Seiteninhalt springen [Alt]+[1]

Lösungshinweise und Erwartungshorizont für ausgewählte Aufgaben

Lösungshinweise für die erste Doppelstunde (exemplarische Auswahl)

Erarbeitung 1:

Beispiel 1: Empfehlungsalgorithmen - Vorteile: passgenaue Empfehlungen ohne großen Aufwand (Effizienz), Zeiteinsparung (Effizienz). Nachteile: Empfehlung von Dingen, die man gar nicht will/Beeinflussung von Entscheidungen (Manipulation), Unklarheit, was warum empfohlen wird (Intransparenz), Passivität (Kontrollverlust), Verwendung persönlicher Daten (Datenschutz), Filter-blasen (Kontrollverlust)

Beispiel 2: Smart Home und Internet der Dinge - Vorteile: Erleichterung im Alltag durch Automatisierung (Vereinfachung/Problemlösung), Optimierung des Energieverbrauchs (Effizienz), verbesserter Schutz (Sicherheit). Nachteile: Fehlfunktionen und Hackerangriffe (Kontrollverlust), Verwendung persönlicher Daten (Datenschutz), man kennt sich im eigenen Haus weniger aus (Kontrollverlust/Abhängigkeit)

Beispiel 3: Übersetzungstools – Vorteile: Ermöglicht einfache Zugänglichkeit von Texten, deren Sprache man nicht spricht (Problemlösung), schnelle und unkomplizierte Übersetzungen (Effizienz), Überwindung von Sprachhindernissen (Vereinfachung). Nachteile: Menschen verlassen sich zunehmend auf solche Tools und lernen möglicherweise keine Fremdsprachen mehr (Verlernen), Fehlerhafte Übersetzungen könnten irreführend sein (Kontrollverlust), übersetzte Texte können Rückschlüsse auf eingebende Person zulassen (Datenschutz)

Erarbeitung 2: Wertkonflikte benennen

Aufgabe 1:

Szenario A: Übermäßiges Spielen durch manipulative Mechaniken; Verlust von Zeitkontrolle.

Szenario B: Einschränkung der Musikauswahl durch Empfehlungsalgorithmen; Verlust von Vielfalt.

Szenario C: Abhängigkeit von KI-Lösungen; mangelnde Eigenständigkeit beim Lösen von Aufgaben.

Szenario E: Unsicherheit und Angst vor autonomen Fahrzeugen; Vertrauen in Technologie vs. Risiken durch Fehler.

Aufgabe 2: Wertekonflikte benennen

Szenario A: Konflikt zwischen Unterhaltung und Eigenständigkeit oder Konflikt zwischen Bequemlichkeit und Selbstbestimmung.

Szenario B: Konflikt zwischen Effizienz (personalisiertes Hören) und Freiheit (vielfältige Auswahl) oder Konflikt zwischen Bequemlichkeit (empfohlene Musik) und Kreativität (neue Entdeckungen).

Szenario C: Konflikt zwischen Effizienz (schnelle Lösungen) und Eigenständigkeit (selbstständiges Lernen) oder Konflikt zwischen Bequemlichkeit und Selbstbestimmung.

Szenario D: Konflikt zwischen Komfort und Datenschutz oder Konflikt zwischen Bequemlichkeit und Privatsphäre.

Szenario E: Konflikt zwischen Mobilität und Sicherheit, Konflikt zwischen Effizienz (umweltfreundlicher Verkehr) und Vertrauen (Risiken durch KI).

Expertengruppe A – Potenziale

Untergruppe 1 - KI und erneuerbare Energien: KI ermöglicht eine effizientere Nutzung erneuerbarer Energien (Berechnung der optimalen Anordnung von Solarpanels, Vorhersagen für Strombedarf und Wetter, um Energieproduktion und -verbrauch zu optimieren, Verbesserung der Netzstabilität durch Vermeidung von Überlastungen); insgesamt Möglichkeit einer Reduktion der Treibhausgase.

Untergruppe 2 - KI zum Schutz von Wäldern: Einsatz von Algorithmen zur Erkennung illegaler Rodungen, automatisierte Erkennung gefährdeter Waldgebiete, Nutzung von Satellitendaten zur Analyse der Gesundheit von Wäldern.

Untergruppe 4 - KI in der Landwirtschaft: Präzise Analyse und Nutzung von Ressourcen (z.B. effizienter Einsatz von Wasser, Dünger usw.), Überwachung von Nutzpflanzen und Tieren, Einsatz von Feldrobotern.

Expertengruppe B – Risiken

Untergruppe 1 - Steigender Energieverbrauch durch KI: Rechenzentren werden bis 2030 ca. 5 % des europäischen Stromverbrauchs ausmachen, KI-Modelle erfordern enorme Energie, was den Ausstoß von Treibhausgasen steigert, wenn keine erneuerbaren Energien genutzt werden.

Untergruppe 2 – Gründe für den Energieverbrauch: Große Nutzung von GPUs mit enormem Energiebedarf, Energiebedarf entsteht nicht nur durch Berechnungen, sondern auch durch Datenübertragung, weltweit gehen bis zu 8 % des Stromverbrauchs in die Nutzung digitaler Technologien.

Untergruppe 3 - Herausforderungen bei der Nutzung erneuerbarer Energien: Begrenzte Verfügbarkeit von sauberem Strom und Infrastrukturengpässe, Investitionen in erneuerbare Energien und Stromnetzausbau erforderlich, Steigende Nutzung von Kernenergie durch TechUnternehmen.

Lösungshinweise für die vierte Doppelstunde (exemplarische Auswahl)

Erarbeitung I:

Aufgabe Was ist digitales Nudging?

Nudging ist eine Verhaltensbeeinflussung, die Entscheidungen in eine gewünschte Richtung lenkt, ohne die Wahlfreiheit grundsätzlich einzuschränken. Es basiert auf subtiler Gestaltung der Präsentation von Optionen (z. B. durch Platzierung, Hervorhebung, Reihenfolge). Ziel ist die Förderung von bestimmten Verhaltensweisen, die auch positiv sein können (wie Nachhaltigkeit, Produktivität oder Gesundheit).

2. Aufgabe: Wie funktioniert KI-Nudging?

Verhaltensanalyse: KI analysiert große Datenmengen (z. B. Vorlieben, Gewohnheiten, Ziele) und erkennt Muster. Personalisierung: Basierend auf den Daten werden individuelle „Nudges“ erstellt, die auf die spezifischen Bedürfnisse oder Interessen der Nutzer abzielen. Präsentation: Optionen werden so präsentiert, dass sie eine bestimmte Entscheidung begünstigen, z. B. durch Erinnerungen, Vorschläge oder motivierende Nachrichten. Vorhersagen: KI erkennt zukünftiges Verhalten (z. B. Kaufentscheidungen oder Nutzungsmuster) und passt Nudging entsprechend an.

3. Aufgabe: Beurteilung

Positive Beispiele: Förderung von gesundem Verhalten (Fitness-Apps), Unterstützung nachhaltiger Entscheidungen (intelligente Thermostate). Negative Beispiele: Manipulation durch Kaufvorschläge, Einschränkung von Vielfalt (z. B. Filterblasen durch personalisierte Empfehlungen).

Erarbeitung II:

1. Aufgabe: Einfluss von KI auf die Autonomie

Subtiler Eingriff in Entscheidungsfreiheit: KI-gestütztes Nudging lenkt Entscheidungen durch ge-zielte Verhaltensinterventionen. Dies geschieht oft, ohne dass der Mensch die Mechanismen vollständig versteht. Gefahr der Fremdbestimmung: Individuelle Entscheidungen könnten weniger auf eigenen Überlegungen basieren und stärker von technologischen Systemen beeinflusst werden. Der Mensch handelt möglicherweise im Rahmen von Vorgaben, die von KI-Algorithmen bestimmt werden. Veränderung des Menschenbildes: KI-gestütztes Nudging verstärkt die Macht technologischer Systeme und könnte das Menschenbild als selbstbestimmtes, autonomes Wesen herausfordern.

2. Aufgabe: Gefährdung der Autonomie?

Pro: „Fremdkontrolle“ (Menschen könnten unbewusst in ihren Handlungen manipuliert werde, Betreiber könnten durch Nudging ihre eigenen Ziele priorisieren), Einschränkung der Selbstbestimmung (Individuelle Überlegungen, Wünsche und Motive könnten durch die Mechanismen des Nudging unterwandert werden, Menschen könnten zunehmend Entscheidungen treffen, die ihnen „aufgezwungen“ erscheinen), Verhaltensabhängigkeit (langfristig könnten Menschen weniger eigene Entscheidungen treffen und sich stärker auf die „Hilfen“ der KI verlassen)

Contra: Bewahrung der Wahlfreiheit (Nudging schränkt die Wahlfreiheit nicht vollständig ein, sondern beeinflusst nur die Präsentation von Optionen, Menschen können weiterhin frei entscheiden, welchen Vorschlägen sie folgen), positive Bestärkung (Nudging könnte verwendet werden, um autonomes Verhalten zu stärken, z.B. einen gesünderen Lebensstil durch Fitness-Apps).

Weiter zu Glossar