Künstliche Intelligenz und ihre dunklen Seiten

Zum Thema Künstliche Intelligenz (KI) haben Sie in meinem Blog wahrscheinlich schon einige Beiträge gelesen (wie z.B. diese hier). KI hat in der Tat das Potenzial, viele Aspekte unseres Lebens zu transformieren, von der Art und Weise, wie wir arbeiten, bis hin zu unserem Wohnraum. Doch wer mich kennt, der weiß auch, dass ich nicht zu denen gehöre, die Technologie unreflektiert hypen.

Einerseits versuche ich immer eine offene und positive Grundeinstellung zu allem Neuen einzunehmen. Andererseits behalte ich mir immer auch vor in die andere Richtung zu schauen und zu versuchen Hindernisse und Herausforderungen zu sehen. Und das weniger, um die Innovationskraft zu schmälern. Im Gegenteil: Wenn wir wissen, welche Barrieren der Innovation entgegenstehen, können wir der Durchdringung noch am besten helfen. Und gerade beim Thema KI kommen zahlreiche Herausforderungen und unbeabsichtigte Konsequenzen auf uns zu.

In diesem Blog-Beitrag diskutiere ich 15 dunkle Seiten der Künstlichen Intelligenz. Dabei versuche ich anhand von Beispielen jeden Punkt in einen praxisrelevanten Kontext zu stellen und auch Hinweise zu geben, wie wir damit umgehen können.

1. Ausbeutung von Klickarbeitern durch Künstliche Intelligenz

Während die Künstliche Intelligenz als eine der bedeutendsten technologischen Errungenschaften des 21. Jahrhunderts gefeiert wird, bleibt eine ihrer grundlegendsten Unterstützungen im Schatten verborgen: die mühsame und schlecht bezahlte Klickarbeit (Tagesschau, 2024). Diese unsichtbaren Arbeitskräfte spielen eine fundamentale Rolle bei der Entwicklung und Verfeinerung von KI-Systemen, von der Bilderkennung bis hin zu komplexen Algorithmen für maschinelles Lernen. Doch die Bedingungen, unter denen diese Menschen arbeiten, werfen ernsthafte ethische Fragen auf (Spiegel, 2023). Auch in der Bau- und Immobilienwirtschaft werden die Folgen und Herausforderungen dieser Praxis sichtbar.

Die unsichtbare Armee hinter der Künstlichen Intelligenz

Klickarbeiter führen Aufgaben aus, die für das Training von KI-Systemen unerlässlich sind. Sie taggen Bilder, kategorisieren Daten und führen andere repetitive Aufgaben aus, die Algorithmen das „Lernen“ ermöglichen. Ihre Arbeit ist zeitaufwendig, oft monoton und wird in der Regel schlecht entlohnt. Trotz ihrer zentralen Rolle in der Entwicklung von KI erhalten sie selten Anerkennung oder angemessene Vergütung. Die Ausbeutung von Klickarbeitern wirft schwerwiegende ethische Fragen auf. Es geht um faire Löhne, Arbeitsbedingungen und die Anerkennung ihrer Beiträge zur KI-Entwicklung. Die Diskrepanz zwischen dem Wert, den ihre Arbeit für Unternehmen und Nutzende schafft, und ihrer Entlohnung und Behandlung ist beträchtlich. Diese Diskrepanz zeigt, dass unser Fortschritt in der digitalen Ära auf prekären und ungerechten Grundlagen beruhen kann.

Beispiel aus der Bau- und Immobilienwirtschaft

Beispiele für die Rolle von Klickarbeitern im Kontext der Künstlichen Intelligenz findet sich auch in der Bau- und Immobilienwirtschaft. Betrachten wir die Nutzung von KI zur Analyse von Satellitenbildern für die Bewertung von Grundstücken. Klickarbeiterinnen und Klickarbeiter taggen Bilder mit spezifischen Merkmalen wie Gebäude, Straßen und Grünflächen, um Algorithmen zu trainieren, die dann automatisiert den Wert eines Grundstücks einschätzen können. Diese Technologie verspricht Effizienzsteigerung und Kostensenkung, baut aber auf der mühsamen Arbeit von Menschen auf, die unter Bedingungen arbeiten, welche oft wenig mit den glänzenden Versprechen der Technologieindustrie gemein haben.

Herausforderungen

  1. Ungerechte Entlohnung und Arbeitsbedingungen: Klickarbeiter erhalten häufig sehr niedrige Löhne und arbeiten unter prekären Bedingungen, ohne soziale Absicherung oder Arbeitsrechte. Dies steht in starkem Kontrast zum hohen wirtschaftlichen Nutzen, den ihre Arbeit für Unternehmen generiert.
  2. Ethische Bedenken: Die Diskrepanz zwischen der wichtigen Rolle, die Klickarbeiter bei der Entwicklung von KI spielen, und der mangelnden Anerkennung und Entlohnung ihrer Arbeit wirft schwerwiegende ethische Fragen auf. Es geht um die gerechte Verteilung von Wohlstand und die Einhaltung menschenwürdiger Arbeitsbedingungen.
  3. Soziale Ungleichheit: Die fortschreitende Automatisierung und Digitalisierung könnten bestehende soziale Ungleichheiten weiter verstärken, wenn die fundamentalen Beiträge von Klickarbeitern nicht entsprechend gewürdigt und entlohnt werden. Dies könnte zu einer noch stärkeren Kluft zwischen den Gewinnern der digitalen Revolution und denjenigen, die im Schatten arbeiten, führen.
  4. Rechtliche und regulatorische Risiken: Unternehmen, die auf Klickarbeiter setzen, könnten sich rechtlichen Risiken aussetzen, wenn diese Arbeitskräfte unter fragwürdigen Bedingungen beschäftigt werden. Regulierungsbehörden könnten Maßnahmen ergreifen, um faire Arbeitspraktiken zu erzwingen, was zu zusätzlichen Kosten und rechtlichen Herausforderungen führen kann.
  5. Reputationsrisiken: Unternehmen, die von der Arbeit schlecht bezahlter Klickarbeiter profitieren, riskieren Reputationsschäden, wenn die Arbeitsbedingungen dieser Menschen öffentlich bekannt werden. Dies kann das Vertrauen der Kunden und Investoren beeinträchtigen und langfristig negative Auswirkungen auf das Geschäft haben.
  6. Nachhaltigkeit und langfristige Effekte: Eine auf Ausbeutung basierende Arbeitskraftstrategie ist nicht nachhaltig. Die langfristigen Effekte könnten in Form von erhöhter Mitarbeiterfluktuation, sinkender Arbeitsmoral und potenziellen Boykotten oder Protesten auftreten, was letztlich die Effizienz und Produktivität der betroffenen Unternehmen beeinträchtigen kann.

Gegenmaßnahmen

Es gibt einen wachsenden Ruf nach ethischer Verantwortung in der KI-Entwicklung, der die Bedingungen, unter denen Klickarbeiter arbeiten, miteinschließt. Unternehmen, die KI-Technologien entwickeln und nutzen, müssen sicherstellen, dass ihre Praktiken ethischen Standards entsprechen, die faire Löhne, humane Arbeitsbedingungen und die Anerkennung der Beiträge von Klickarbeitern umfassen.

  1. Transparenz: Unternehmen sollten offenlegen, wie ihre Daten annotiert werden und unter welchen Bedingungen die Klickarbeiter tätig sind.
  2. Faire Vergütung: Es muss ein System etabliert werden, das sicherstellt, dass Klickarbeiter fair für ihre Beiträge entlohnt werden.
  3. Arbeitsbedingungen: Die Arbeitsbedingungen von Klickarbeitern müssen verbessert werden, einschließlich der Bereitstellung angemessener Pausen und des Schutzes vor übermäßiger Arbeitsbelastung.
  4. Regulierung: Es könnte notwendig sein, gesetzliche Rahmenbedingungen zu schaffen, die Mindeststandards für die Arbeit von Klickarbeitern festlegen.

Während die KI das Potenzial hat, unsere Welt zu verbessern, dürfen wir nicht übersehen, wie und zu welchem Preis diese Technologien entwickelt werden. Die Bau- und Immobilienwirtschaft, wie viele andere Sektoren, die auf Künstliche Intelligenz setzen, muss sich aktiv mit den dunklen Seiten dieser Technologie auseinandersetzen und ethisch verantwortungsvolle Praktiken fördern. Nur so kann sichergestellt werden, dass der Fortschritt nicht auf der Ausbeutung der am wenigsten Geschützten beruht.

2. Verstärkung sozialer Ungleichheiten durch Künstliche Intelligenz

KI-Systeme, welche auf historischen Daten basieren, können vorhandene Vorurteile verstärken und zu sozialen Ungleichheiten führen (Lopez, 2021). Soziale Ungleichheiten entstehen, wenn Ressourcen, Chancen und Macht ungleich verteilt sind, oft entlang von Linien wie Einkommen, Rasse, Geschlecht und geografischer Lage. KI-Systeme, die auf historischen Daten trainiert werden, laufen Gefahr, existierende Vorurteile und Diskriminierungsmuster zu „lernen“ und weiter zu verstärken. Das liegt daran, dass Algorithmen Muster in den Daten nachbilden, ohne den Kontext oder die sozialen Ungerechtigkeiten, die diese Muster geformt haben, zu verstehen. Sie erinnern sich vieleicht noch an den Chatbot Tay von Microsoft, der mit Twitter Usern interagieren sollte. Tay´s Aufgabe war über Twitter die Jugendsprache zu lernen. Das war zumindest die ursprüngliche Idee für den selbstlernenden Algorithmus. Im Jahr 2016 wurde Tay auf Twitter gestellt und bereits nach 16 Stunden wieder entfernt. Grund war, dass Tay in dieser Zeit eines sehr gut gelernt hatte: Hassrede. Das Phänomen der Verstärkung sozialer Ungleichheiten kann auch in der Bau- und Immobilienwirtschaft relevant werden.

Die Rolle von Daten

Das Herzstück des Problems liegt in den Daten, die zum Trainieren der Algorithmen der Künstlichen Intelligenz verwendet werden. Diese Daten spiegeln oft jahrzehntelange sozioökonomische Ungleichheiten und diskriminierende Praktiken wider. Ohne angemessene Korrekturmaßnahmen lernen KI-Systeme, diese Muster zu replizieren und in ihren Antworten und Entscheidungen umzusetzen. Dadurch wird die digitale Spaltung vertieft, und soziale Ungleichheiten werden in neuen und subtileren Formen zementiert. Im Falle von Tay wurde es durch die direkte Interaktion mit den Twitter-Usern ersichtlich, doch wenn ein KI-System womöglich für sich gelassen wird, und wir nur die reinen Ergebnisse betrachten können, ist es uns kaum noch möglich Effekte sozialer Ungleichheiten zu erkennen.

Beispiel aus der Bau- und Immobilienwirtschaft

Ein Beispiel für die Verstärkung sozialer Ungleichheiten durch Künstliche Intelligenz könnten wir in der Immobilienbranche bei der Bewertung von Immobilien und der Vergabe von Krediten finden. KI-Algorithmen, die zur Einschätzung der Kreditwürdigkeit oder des Wertes einer Immobilie verwendet werden, können unbeabsichtigt diskriminierende Praktiken gegenüber bestimmten Bevölkerungsgruppen verstärken. Ein Algorithmus könnte beispielsweise niedrigere Kreditwürdigkeitsbewertungen für Antragsteller aus bestimmten Postleitzahlenbereichen generieren, die historisch benachteiligte Gemeinschaften umfassen. Diese Praxis kann dazu führen, dass Menschen aus diesen Gebieten schlechtere Konditionen erhalten oder ganz von der Möglichkeit, ein Eigenheim zu erwerben, ausgeschlossen werden. Solche Effekte sind nicht unbekannt, wenn wir uns den Schufa-Score ins Gedächtnis rufen, der laut Urteil des EuGH nicht mehr ausschließlich zur Bewertung der Kreditwürdigkeit herangezogen werden darf (NDR, 2023).

Herausforderungen

  1. Vorurteile und unsichtbare Diskriminierung: KI-Systeme, die mit historischen Daten trainiert werden, übernehmen oft die darin enthaltenen Vorurteile und Diskriminierungsmuster. Das kann zu diskriminierenden Entscheidungen führen, da die Algorithmen die Muster nachbilden, ohne den Kontext oder die sozialen Ungerechtigkeiten, welche diese Muster geformt haben, zu verstehen. Erschwerend kommt hinzu, dass wir kaum nachvollziehen können, wie ein KI-System zu einer Entscheidung kommt, wodurch Effekte sozialer Ungleichheiten subtiler und schwerer zu erkennen sind.
  2. Ungleiche Verteilung von Ressourcen und Chancen: KI-Systeme können bestehende soziale Ungleichheiten vertiefen, indem sie Entscheidungen treffen, die bestimmte Bevölkerungsgruppen benachteiligen. Dies führt zu einer weiteren Ungleichverteilung von Ressourcen, Chancen und Macht.
  3. Bewertung von Immobilien und Vergabe von Krediten: KI-Algorithmen, die zur Bewertung von Immobilien verwendet werden, können diskriminierende Praktiken gegenüber bestimmten Bevölkerungsgruppen verstärken. Ein Beispiel wäre die Bewertung von Immobilien in historisch benachteiligten Gebieten, was zu niedrigeren Immobilienwerten führt oder die Einschätzung der Kreditwürdigkeit bei historisch benachteiligte Gemeinschaften beeinflusst.
  4. Erhöhte soziale Spannungen: Die Verstärkung sozialer Ungleichheiten durch KI kann zu erhöhten sozialen Spannungen führen, da benachteiligte Gruppen weiter marginalisiert werden. Dadurch kann es zu langfristiger gesellschaftlicher Ungerechtigkeit kommen, was den sozialen Zusammenhalt und die Chancengleichheit beeinträchtigt.

Gegenmaßnahmen

Um die Verstärkung sozialer Ungleichheiten durch Künstliche Intelligenz zu bekämpfen, sind mehrere Ansätze denkbar:

  1. Bewusstsein und Transparenz: Es ist wichtig, sich der potenziellen Vorurteile bewusst zu sein, die in KI-Systemen vorhanden sein können. Unternehmen müssen Transparenz in ihren Algorithmen schaffen und offenlegen, welche Daten dem Training zu Grunde liegen.
  2. Diversifizierung der Datensätze: Durch die Einbeziehung vielfältigerer und umfassenderer Datensätze können Entwickler dazu beitragen, dass ihre Algorithmen ein realistischeres Bild der Gesellschaft abbilden und nicht unbeabsichtigt diskriminierende Muster verstärken.
  3. Ethische Richtlinien und Regulierung: Die Entwicklung ethischer Richtlinien für KI-Anwendungen und deren Regulierung durch unabhängige Stellen kann dazu beitragen, den Missbrauch von KI-Technologien zu verhindern und sicherzustellen, dass sie im Dienste der Gesellschaft eingesetzt werden.
  4. Beteiligung der Betroffenen: Die Einbeziehung von Gemeinschaften und Individuen, die von KI-Entscheidungen betroffen sein könnten, in den Entwicklungsprozess hilft, die Bedürfnisse und Perspektiven derjenigen zu berücksichtigen, die am stärksten von sozialen Ungleichheiten betroffen sind.

Die KI bietet unbestreitbare Vorteile für die Gesellschaft, birgt jedoch auch das Risiko, bestehende soziale Ungleichheiten zu verstärken. Insbesondere in der Bau- und Immobilienwirtschaft manifestieren sich diese Risiken in Form von diskriminierenden Kreditvergabeprozessen und Immobilienbewertungen. Um diese dunklen Seiten der Künstlichen Intelligenz anzugehen, ist ein koordinierter Ansatz erforderlich, der Bewusstsein, ethische Überlegungen, Regulierung und die aktive Einbeziehung betroffener Gemeinschaften umfasst. Nur so kann die KI ihr volles Potenzial entfalten, ohne die soziale Kluft zu vertiefen.

3. Verlust von Arbeitsplätzen durch Künstliche Intelligenz

Die Einführung der Künstlichen Intelligenz in verschiedenen Branchen hat die Art und Weise, wie wir arbeiten, kommunizieren und unser tägliches Leben gestalten, grundlegend verändert. Doch während diese technologischen Fortschritte in vielen Bereichen zu einer Steigerung der Effizienz und Produktivität geführt haben, werfen sie auch Schatten auf den Arbeitsmarkt. Einer der am meisten diskutierten Aspekte ist der potenzielle Verlust von Arbeitsplätzen durch Automatisierung und KI-gesteuerte Systeme. Denn KI ist in der Lage, auch die Tätigkeiten von Fachkräften kostengünstiger auszuführen (Kaufmann, 2024). Diese Entwicklung stellt insbesondere in traditionellen und arbeitsintensiven Branchen wie der Bau- und Immobilienwirtschaft eine erhebliche Herausforderung dar.

Beispiel: Automatisierung in der Bau- und Immobilienwirtschaft

Ein Beispiel für die Auswirkungen der Künstlichen Intelligenz auf die Arbeitsplätze in der Bau- und Immobilienwirtschaft ist der Einsatz von Drohnen und automatisierten, KI-gestützten Überwachungssystemen zur Überwachung von Baustellen. Diese Technologien können die Fortschritte eines Projekts in Echtzeit erfassen, was die Notwendigkeit manueller Kontrollen und damit verbundener Arbeitskräfte reduziert. Zudem ermöglichen fortschrittliche Softwarelösungen für das Design und Management von Bauvorhaben eine erhebliche Reduktion des Zeitaufwands für Planungs- und Verwaltungsaufgaben, was traditionell von Fachkräften wie Architektinnen und Architekten bzw. Bauingenieurinnen und Bauingenieuren ausgeführt wurde.

Diese Beispiele zeigen, dass der Einsatz von KI nicht nur einfache, repetitive Tätigkeiten automatisiert, sondern zunehmend auch komplexere Aufgaben übernehmen kann, die bisher qualifizierten Arbeitskräften vorbehalten waren. Die Folge ist ein breites Spektrum an Herausforderungen für den Arbeitsmarkt, die von der Umschulung der Belegschaft bis hin zur Neugestaltung sozialer Sicherungssysteme reichen.

Herausforderungen

  1. Verlust manueller Aufgaben: Der Einsatz von automatisierten KI-gestützten Systemen auf Baustellen verringert die Notwendigkeit manueller Tätigkeiten. Das führt zu einem Rückgang der Arbeitsplätze, die bisher für diese Aufgaben benötigt wurden.
  2. Ersetzung qualifizierter Arbeitskräfte: Automatisierte Planungs- und Verwaltungsaufgaben: KI-gestützte Softwarelösungen reduzieren den Zeitaufwand für Planungs- und Verwaltungsaufgaben. Aufgaben, die traditionell von Fachkräften wie Architektinnen/ Architekten und Bauingenieurinnen/ Bauingenieuren ausgeführt wurden, können nun von KI übernommen werden. KI kann zudem zunehmend komplexere Aufgaben übernehmen, die bisher qualifizierten Arbeitskräften vorbehalten waren, was zu einem Verlust hochqualifizierter Jobs führt.
  3. Weniger repetitive Tätigkeiten: Einfache, repetitive Tätigkeiten werden durch automatisierte KI-gestützte Systeme verdrängt, was besonders manuelle Arbeiten betrifft.
  4. Keine zeitnahe Re-Quelifizierung: Es kann zu Effizienzverlusten kommen, wenn der Bedarf an zeitnahen Umschulungsprogrammen nicht addressiert wird, um die betroffenen Arbeitskräfte auf neue, technologieorientierte Aufgaben frühzeitig vorzubereiten. Ebenso müssen die bereits in Ausbildung befindlichen Menschen auf die kommenden Veränderungen zeitnah vorbereitet werden.
  5. Erhöhte Arbeitslosigkeit und soziale Ungleichheit: Der Verlust von Arbeitsplätzen kann zu einer erhöhten Arbeitslosigkeit führen, was wirtschaftliche und soziale Spannungen in der Gesellschaft verstärkt. Die Ungleichheit zwischen denjenigen, die von technologischen Fortschritten profitieren, und denjenigen, die ihre Arbeitsplätze verlieren, kann weiter zunehmen.

Gegenmaßnahmen

Um den Verlust von Arbeitsplätzen durch Künstliche Intelligenz zu bekämpfen, sind folgende Ansätze denkbar:

  1. Förderung von Weiterbildung und Umschulung: Eine der effektivsten Maßnahmen, um den Herausforderungen des Arbeitsplatzverlustes durch Künstliche Intelligenz zu begegnen, ist die Investition in Weiterbildungs- und Umschulungsprogramme. Diese sollten darauf abzielen, die Fähigkeiten der Arbeitskräfte an die Bedürfnisse eines zunehmend digitalisierten Arbeitsmarktes anzupassen.
  2. Schaffung neuer Arbeitsplätze durch Innovation: Gleichzeitig ist es wichtig, dass sowohl die öffentliche Hand als auch die Privatwirtschaft in neue Technologien und Geschäftsmodelle investieren, die neue Arbeitsplätze schaffen können. In der Bau- und Immobilienwirtschaft könnte dies beispielsweise die Entwicklung von nachhaltigen Bautechnologien oder innovativen Wohnkonzepten umfassen.
  3. Anpassung sozialer Sicherungssysteme: Die potenziellen Arbeitsplatzverluste durch KI erfordern eine Überarbeitung bestehender sozialer Sicherungssysteme. Dies könnte die Einführung von Mechanismen wie einem bedingungslosen Grundeinkommen oder flexibleren Arbeitslosenversicherungen beinhalten, um den Übergang für betroffene Arbeitskräfte zu erleichtern.
  4. Stärkung der sozialen Dialoge: Der Dialog zwischen Regierungen, Unternehmen, Gewerkschaften und Bildungseinrichtungen spielt eine entscheidende Rolle bei der Gestaltung einer Arbeitswelt, die durch KI verändert wird. Gemeinsam können diese Akteure Strategien entwickeln, die sowohl den wirtschaftlichen als auch den sozialen Herausforderungen gerecht werden.
  5. Ethische Richtlinien für den Einsatz von KI: Schließlich ist es wichtig, ethische Richtlinien für die Entwicklung und Implementierung von KI-Systemen zu etablieren. Diese sollten nicht nur technische Aspekte berücksichtigen, sondern auch die potenziellen Auswirkungen auf den Arbeitsmarkt und die Gesellschaft insgesamt.

Der Verlust von Arbeitsplätzen durch die Einführung der Künstlichen Intelligenz ist eine der drängendsten Herausforderungen unserer Zeit. Insbesondere in der Bau- und Immobilienwirtschaft zeigt sich, wie KI-gesteuerte Technologien traditionelle Arbeitsweisen verändern können. Durch proaktive Maßnahmen wie die Förderung von Weiterbildung, die Schaffung neuer Arbeitsplätze, die Anpassung sozialer Sicherungssysteme, den sozialen Dialog und ethische Richtlinien können wir jedoch sicherstellen, dass der Übergang in eine von KI geprägte Zukunft gerecht und inklusiv gestaltet wird.

4. Künstliche Intelligenz und Datenschutz/ Privatsphäre

Die Fähigkeit der Künstlichen Intelligenz, große Datenmengen zu sammeln, zu analysieren und darauf basierend Entscheidungen zu treffen, birgt das Risiko eines Missbrauchs dieser Daten und einer Verletzung der Privatsphäre von Individuen. Diese Bedenken sind besonders in der Bau- und Immobilienwirtschaft relevant, wo der Einsatz von KI-Technologien zunimmt und sensible Informationen über Gebäude und deren Bewohnerinnen und Bewohner im Mittelpunkt stehen. Besonders schutzwürdige Daten können sein: Personendaten, Daten des Zahlungsverkehrs und Transaktionen, Baudaten, Abrechnungen, Mails, Protokolle und Gesprächsaufzeichnungen. Hinzu kommen Daten, die nicht offensichtlich sind, wie Sensordaten, Telefonate, Fotos, Positionsdaten oder Bewegungsprofile (Spengler & Karl, 2018). 

Beispiel: Smart Building

Ein Beispiel für die Herausforderungen des Datenschutzes und der Privatsphäre durch Künstliche Intelligenz in der Bau- und Immobilienwirtschaft sind Smart Buildings. Diese Gebäude nutzen KI-Systeme, um verschiedene Aspekte des Gebäudebetriebs zu steuern, von der Energieeffizienz bis zur Sicherheit. Während die Automatisierung dieser Prozesse erhebliche Vorteile mit sich bringt, erfordert sie auch die Sammlung und Analyse von Daten über die Gewohnheiten und Vorlieben der Bewohner. Dies umfasst Informationen darüber, wann und wie Räume genutzt werden, bis hin zu persönlichen Präferenzen in Bezug auf Beleuchtung und Raumtemperatur.

Die Sammlung dieser Daten wirft Fragen darüber auf, wer Zugang zu diesen Informationen hat, wie sie gespeichert und verwendet werden und welche Kontrolle die Bewohner über ihre eigenen Daten haben. Ohne angemessene Datenschutzmaßnahmen könnten sensible Informationen missbraucht werden, was zu einem Eingriff in die Privatsphäre und möglicherweise zu gezielten Sicherheitsverletzungen führt.

Herausforderungen

  1. Missbrauch gesammelter Daten: Ohne angemessene Sicherheitsmaßnahmen können unbefugte Personen oder Organisationen Zugang zu den gesammelten Daten erhalten, was zu Missbrauch und Identitätsdiebstahl führen kann. Zudem könnten Unternehmen die gesammelten Daten ohne Zustimmung der Betroffenen weitergeben/ verkaufen, was deren Privatsphäre gefährdet und sie potenziell schädlichen Nutzungen aussetzt.
  2. Verletzung der Privatsphäre und Vertrauensverlust: KI-Systeme in Smart Buildings sammeln kontinuierlich Daten über die Bewohnerinnen und Bewohner, einschließlich ihrer Gewohnheiten und Vorlieben. Das kann als invasive Überwachung empfunden werden und das Gefühl der eigenen Privatsphäre beeinträchtigen.
  3. Mangelnde Kontrolle über persönliche Daten: Bewohnerinnen und Bewohner haben oft wenig Kontrolle darüber, welche Daten gesammelt werden und wie sie genutzt werden. Dies führt zu Bedenken hinsichtlich der Datenhoheit und der Fähigkeit, die Nutzung ihrer eigenen Informationen zu steuern. In manchen Fällen sind Opt-out-Optionen für die Datensammlung begrenzt, was die Nutzerinnen und Nutzer dazu zwingt, ihre Daten preiszugeben, um grundlegende Funktionen nutzen zu können.
  4. Sicherheitsverletzungen und Datenlecks: Smart Buildings, die auf vernetzten Systemen basieren, sind anfällig für Hackerangriffe, die nicht nur persönliche Daten gefährden, sondern auch die Sicherheit der Nutzenden direkt bedrohen können. Unzureichend geschützte Datenbanken können zu Lecks sensibler Informationen führen, was schwerwiegende Konsequenzen für die betroffenen Personen haben kann.

Gegenmaßnahmen

Um die Risiken für den Datenschutz und die Privatsphäre zu minimieren, die mit dem Einsatz von KI in der Bau- und Immobilienwirtschaft einhergehen, sind folgende Maßnahmen erwägenswert:

  1. Strenge Datenschutzrichtlinien: Unternehmen sollten klare Richtlinien für die Sammlung, Speicherung und Verwendung von Daten festlegen. Diese Richtlinien müssen in Übereinstimmung mit nationalen und internationalen Datenschutzgesetzen stehen und transparent für die Nutzenden sein (siehe auch diesen Beitrag zur EU KI-Verordnung).
  2. Datensparsamkeit: Prinzipiell sollten nur die Daten gesammelt werden, die für den beabsichtigten Zweck unbedingt notwendig sind. Durch die Begrenzung der Datensammlung auf das Wesentliche lässt sich das Risiko von Datenschutzverletzungen verringern.
  3. Verschlüsselung und Sicherheitsmaßnahmen: Um die gesammelten Daten zu schützen, sollten fortschrittliche Verschlüsselungstechniken und andere Sicherheitsmaßnahmen implementiert werden. Dies hilft, die Daten vor unbefugtem Zugriff zu schützen.
  4. Einbindung der Betroffenen: Nutzer sollten die Kontrolle über ihre eigenen Daten haben. Dies umfasst die Möglichkeit, Einwilligungen zu erteilen oder zu widerrufen, sowie das Recht auf Auskunft, Berichtigung und Löschung ihrer Daten.
  5. Ethische KI-Entwicklung: Entwickler von KI-Systemen sollten ethische Überlegungen in den Entwicklungsprozess einfließen lassen. Dies beinhaltet die Berücksichtigung der potenziellen Auswirkungen ihrer Technologien auf den Datenschutz und die Privatsphäre.

Der Einsatz von Künstlicher Intelligenz in der Bau- und Immobilienwirtschaft bietet enormes Potenzial für Effizienzsteigerungen und Innovationen. Doch dürfen dabei Datenschutz und Privatsphäre nicht auf der Strecke bleiben. Durch die Implementierung strenger Datenschutzmaßnahmen, die Förderung von Transparenz und die Stärkung der Rechte der Nutzer können Unternehmen sicherstellen, dass ihre KI-Technologien verantwortungsvoll eingesetzt werden und das Vertrauen der Nutzer gewinnen. Nur so lässt sich das volle Potenzial von Künstlicher Intelligenz ausschöpfen, ohne die Grundrechte der Menschen zu gefährden.

5. Homogenisierung des städtischen Raums durch Künstliche Intelligenz

Künstliche Intelligenz als Werkzeug der Stadtentwicklung kann helfen, die Lebensqualität zu verbessern, Teilhabe zu stärken und die kommunale Verwaltung effizienter zu machen (Schweitzer, 2022). Demgegenüber kann die Optimierung von Planungswerkzeugen auf Effizienz und Rentabilität aber auch zu einer Vereinheitlichung der gebauten Umwelt führen, wodurch Städte an architektonischer und kultureller Vielfalt verlieren. Ein solches Phänomen kann zur Homogenisierung des städtischen Raums führen. Diese Entwicklung hat weitreichende Implikationen für die Bau- und Immobilienwirtschaft und betrifft die Gestaltung unserer Städte und Wohngebiete. Die KI-getriebene Planung und Entwicklung von Immobilienprojekten könnte dazu führen, dass individuelle Charakteristika und die kulturelle Vielfalt urbaner Räume verloren gehen.

Beispiel: KI in der Stadtplanung

Ein Beispiel findet sich in der Nutzung von KI-Systemen für die Stadt- und Raumplanung. Durch den Einsatz von Algorithmen zur Optimierung von Bauprojekten nach bestimmten Kriterien wie Kosten, Zeit und Energieeffizienz könnten individuelle und kulturelle Aspekte vernachlässigt werden. Beispielsweise könnten Algorithmen, die für die Planung neuer Wohnkomplexe eingesetzt werden, dazu neigen, wiederholbare und standardisierte Designs zu favorisieren, die zwar effizient, aber wenig anpassungsfähig an den lokalen Kontext sind. Das Ergebnis wären Städte und Viertel, die sich in ihrer ästhetischen und funktionellen Gestaltung immer weniger voneinander unterscheiden und somit einen Verlust an Identität und Vielfalt erleiden.

Herausforderungen

  1. Verlust an kultureller Identität: Städte reflektieren die Geschichte, Kultur und Identität ihrer Bewohner. Eine homogenisierte Stadtgestaltung, die durch KI-Systeme gefördert wird, könnte die einzigartigen Merkmale, die eine Stadt oder ein Viertel prägen, untergraben.
  2. Vernachlässigung sozialer Bedürfnisse: Standardisierte Lösungen berücksichtigen möglicherweise nicht die spezifischen sozialen und kulturellen Bedürfnisse der lokalen Bevölkerung. Dies kann zu einer Entfremdung der Bewohner von ihrem eigenen Lebensumfeld führen.
  3. Reduzierte Vielfalt: Die Vielfalt in der Architektur und im Städtebau ist ein Spiegelbild menschlicher Kreativität und Innovation. Eine Überbetonung von Effizienz und Standardisierung könnte diese Vielfalt einschränken.

Gegenmaßnahmen

Um die negativen Auswirkungen der KI-getriebenen Homogenisierung zu bekämpfen, sind gezielte Strategien erforderlich:

  1. Integration lokaler Stakeholder: Die Einbindung lokaler Gemeinschaften, Kulturträger und Stadtplaner in den Planungsprozess kann dazu beitragen, dass KI-Systeme vielfältige Perspektiven und Bedürfnisse berücksichtigen.
  2. Förderung von Diversität in der KI-Entwicklung: Die Teams, die KI-Systeme entwickeln, sollten selbst vielfältig sein und unterschiedliche kulturelle, soziale und fachliche Hintergründe einbringen. Dies erhöht die Wahrscheinlichkeit, dass die entstehenden Lösungen eine breitere Palette an Bedürfnissen abdecken.
  3. Ethik und KI-Governance: Die Entwicklung von ethischen Richtlinien und Governance-Strukturen für den Einsatz von KI in der Stadtplanung und Immobilienentwicklung ist entscheidend. Diese sollten den Schutz kultureller und sozialer Werte explizit berücksichtigen.
  4. Technologie als Werkzeug, nicht als Meister: KI sollte als Werkzeug betrachtet werden, das menschliche Entscheidungsträger unterstützt, nicht ersetzt. Der Schwerpunkt sollte auf der Ergänzung menschlicher Kreativität und Expertise liegen, nicht auf deren Substitution.
  5. Förderung von Innovation: Schließlich sollte der Einsatz von KI in der Stadtplanung auch innovative Ansätze zur Bewahrung und Förderung der kulturellen und architektonischen Vielfalt unterstützen.

Während die Künstliche Intelligenz das Potenzial hat, die Bau- und Immobilienwirtschaft zu transformieren, muss ihr Einsatz sorgfältig gesteuert werden, um eine ungewollte Homogenisierung des städtischen Raums zu vermeiden. Durch die Beachtung der genannten Strategien können wir sicherstellen, dass unsere Städte auch in Zukunft Orte der Vielfalt und Kreativität bleiben.

6. Ethische Bedenken bei Entscheidungsfindungen durch Künstliche Intelligenz

Durch die zunehmende Autonomie von KI-Systemen, welche das Leben von Menschen und die Entscheidungsfindung direkt beeinflussen, können Intransparenz und ethische Bedenken hervorgerufen werden, insbesondere wenn sie zu Diskriminierung oder Ungerechtigkeit führen. Damit KI langfristig angewendet und KI-Lösungen erfolgreich vertrieben werden können, ist es daher unerlässlich, dass Organisationen eine ethisch-angemessene Richtung einschlagen (Barton & Pöppelbuß, 2022). In der Bau- und Immobilienwirtschaft, wo Entscheidungen weitreichende soziale und ökonomische Konsequenzen haben können, sind solche Bedenken besonders akut.

Beispiel: KI in der Immobilienbewertung

Ein Beispiel für die ethischen Herausforderungen von KI-gestützten Entscheidungen in der Bau- und Immobilienwirtschaft ist der Einsatz von Algorithmen zur Immobilienbewertung und -finanzierung. KI-Systeme, die darauf trainiert sind, Immobilienpreise zu schätzen oder Kreditwürdigkeit zu bewerten, können auf historischen Daten basieren, die unbeabsichtigt diskriminierende Tendenzen widerspiegeln. Beispielsweise könnte ein Algorithmus, der aus historischen Verkaufsdaten „lernt“, systematisch niedrigere Werte für Immobilien in bestimmten Postleitzahlenbereichen zuweisen, die traditionell von Minderheiten bewohnt werden. Solche Voreingenommenheiten können zu einer Perpetuierung oder sogar Verstärkung bestehender sozialer Ungleichheiten führen.

Herausforderungen

  1. Intransparenz: Eines der Hauptprobleme bei der Verwendung von KI ist die mangelnde Transparenz ihrer Entscheidungsfindungsprozesse. KI-Systeme, insbesondere solche, die auf tiefen Lernmodellen basieren, werden oft als „Black Boxes“ betrachtet, weil selbst ihre Entwickler nicht immer nachvollziehen können, wie genau diese Systeme zu bestimmten Entscheidungen kommen.
  2. Probleme Verantwortlichkeit festzustellen: Wenn Fehlentscheidungen auftreten, ist es schwierig, die Verantwortlichkeit zu klären. In einem System, das wesentlich von KI-Entscheidungen abhängt, ist es herausfordernd, Personen oder Organisationen für Fehler oder Schäden zur Rechenschaft zu ziehen, was rechtliche und moralische Fragen aufwirft.
  3. Gerechtigkeit und Diskriminierung: KI-Systeme können vorhandene Vorurteile verstärken, wenn sie mit voreingenommenen Daten trainiert werden. Dies führt zu gerechtigkeitsrelevanten Bedenken, besonders in Bereichen wie Kreditvergabe und Immobilienbewertungen, wo solche Voreingenommenheiten schwerwiegende Auswirkungen auf das Leben von Menschen haben können.

Gegenmaßnahmen

Um die ethischen Herausforderungen in der Entscheidungsfindung durch Künstliche Intelligenz zu bewältigen, sind mehrere Ansätze denkbar:

  1. Entwicklung ethischer Richtlinien: Organisationen sollten klare ethische Richtlinien für den Einsatz von KI entwickeln und implementieren. Diese Richtlinien sollten Transparenz, Gerechtigkeit und Verantwortlichkeit in den Mittelpunkt stellen.
  2. Einsatz von Erklärbarkeits-Tools: Die Entwicklung und Nutzung von Tools, die die Entscheidungen von KI-Systemen nachvollziehbar und verständlich machen, können helfen, das Problem der „Black Box“ zu mindern.
  3. Regelmäßige Überprüfung und Auditierung von KI-Systemen: Durch regelmäßige Überprüfungen kann sichergestellt werden, dass KI-Systeme nicht unbeabsichtigte diskriminierende Entscheidungen treffen. Diese Audits sollten von unabhängigen Dritten durchgeführt werden, um Objektivität zu gewährleisten.
  4. Förderung der Diversität in KI-Entwicklungsteams: Diverse Teams können dabei helfen, unterschiedliche Perspektiven einzubringen und die Wahrscheinlichkeit von voreingenommenen Daten, die in Trainingsdatensätzen verwendet werden, zu reduzieren.
  5. Stärkung der gesetzlichen Rahmenbedingungen: Die Schaffung und Durchsetzung von Gesetzen, die den fairen Einsatz von KI regeln, ist fundamental, um Missbrauch zu verhindern und Vertrauen in diese Technologien zu fördern.

Während Künstliche Intelligenz das Potenzial hat, die Effizienz in vielen Bereichen der Bau- und Immobilienwirtschaft zu steigern, müssen wir proaktiv die ethischen Herausforderungen angehen, die mit ihrer Implementierung einhergehen. Nur durch einen verantwortungsbewussten Umgang mit diesen mächtigen Werkzeugen können wir sicherstellen, dass ihre Vorteile allen Mitgliedern der Gesellschaft zugutekommen, ohne die Grundrechte und -freiheiten zu gefährden.

7. Künstliche Intelligenz und technologische Abhängigkeit

Die zunehmende Abhängigkeit von KI birgt Risiken wie Cyberangriffe oder technische Störungen, die schwerwiegende Folgen haben können (EU Parlament, 2023). Diese Folgen können in kritischen Sektoren wie der Bau- und Immobilienwirtschaft besonders problematisch sein, wo sie nicht nur operationale Risiken erhöht, sondern auch die Resilienz gegenüber Systemausfällen und Cyberangriffen vermindert.

Beispiel: Automatisierte Gebäudeverwaltungssysteme

Ein Beispiel für die Abhängigkeit von Technologie in der Bau- und Immobilienwirtschaft sind automatisierte Gebäudeverwaltungssysteme (Building Management Systems, BMS), die zunehmend Künstliche Intelligenz nutzen werden, um alles von Heizung und Lüftung bis hin zu Sicherheitssystemen zu steuern. Diese Systeme verbessern die Energieeffizienz und den Komfort in Gebäuden erheblich, machen die Gebäudebetreiber und Bewohner jedoch auch stark abhängig von der ständigen Verfügbarkeit und korrekten Funktion dieser technologischen Lösungen. Bei einem Ausfall oder einer Fehlfunktion dieser Systeme können ganze Gebäude oder sogar Gebäudekomplexe funktionsunfähig werden, was zu erheblichen Sicherheitsrisiken und Unannehmlichkeiten führen kann.

Herausforderungen

  1. Vulnerabilität durch Systemausfälle: Je abhängiger wir von technologischen Systemen werden, desto anfälliger werden wir für deren Ausfälle. In der Bau- und Immobilienwirtschaft kann dies besonders kritisch sein, da Ausfälle nicht nur finanzielle Verluste, sondern auch reale Gefahren für die physische Sicherheit der Menschen bedeuten können.
  2. Cyber-Sicherheitsrisiken: Mit zunehmender Vernetzung von Gebäudetechnologien steigt auch das Risiko von Cyberangriffen. Hacker könnten theoretisch Kontrolle über wesentliche Funktionen von Gebäuden erlangen, was Datenschutz- und Sicherheitsbedrohungen mit sich bringt.
  3. Verlust von menschlichem Know-how: Die Überlassung von Entscheidungen und Managementfunktionen an KI-Systeme kann zu einem Verlust von Fachwissen und kritischen Fähigkeiten bei menschlichen Mitarbeitern führen. Dies wird problematisch, wenn Menschen eingreifen müssen, besonders in Krisensituationen, wenn die Technologie versagt.
  4. Ethische und soziale Implikationen: Die Abhängigkeit von Technologie wirft auch Fragen der sozialen Gerechtigkeit und Zugänglichkeit auf. Nicht alle Gemeinschaften haben gleichen Zugang zu den neuesten Technologien, was zu einer Vertiefung sozialer und wirtschaftlicher Ungleichheiten führen kann.

Gegenmaßnahmen

Um die Risiken der Abhängigkeit von Technologie zu minimieren, sollten Unternehmen und Organisationen in der Bau- und Immobilienwirtschaft folgende Maßnahmen erwägen:

  1. Redundanz schaffen: Es ist wichtig, Systeme so zu gestalten, dass bei einem Ausfall alternative Lösungen zur Verfügung stehen. Dies könnte die Implementierung von manuellen Steuerungssystemen oder die Installation von Backup-Systemen umfassen.
  2. Robuste Cybersecurity-Maßnahmen: Angesichts der zunehmenden Cyber-Bedrohungen ist eine starke Sicherheitsinfrastruktur entscheidend. Dies schließt regelmäßige Sicherheitsaudits, die Schulung der Mitarbeiter in Cybersecurity-Best Practices und die Implementierung von End-to-End-Verschlüsselungstechniken ein.
  3. Kontinuierliche Schulung und Entwicklung: Um den Verlust von menschlichem Know-how zu verhindern, sollten regelmäßige Schulungen und Weiterbildungsmaßnahmen für Mitarbeiter angeboten werden, die den Umgang mit KI-Systemen und die Behebung von Problemen abdecken.
  4. Ethische Richtlinien entwickeln: Organisationen sollten ethische Richtlinien für den Einsatz von Technologie entwickeln, die Aspekte wie Fairness, Zugänglichkeit und Datenschutz berücksichtigen.
  5. Stakeholder-Engagement: Es ist wichtig, alle relevanten Stakeholder in den Prozess der Technologieimplementierung einzubeziehen, um sicherzustellen, dass die Systeme den Bedürfnissen aller Nutzer gerecht werden.

Die zunehmende Abhängigkeit von KI und anderen Technologien in der Bau- und Immobilienwirtschaft bietet zwar erhebliche Vorteile, birgt jedoch auch signifikante Risiken. Durch die Implementierung durchdachter Strategien können diese Risiken minimiert und ein sicherer, verantwortungsbewusster Umgang mit Technologie gefördert werden, der die Resilienz und Sicherheit aller Beteiligten gewährleistet.

8. Unvorhergesehene ökologische Auswirkungen durch Künstliche Intelligenz

Gemäß dem Bundesministerium für Umwelt, Naturschutz, nukleare Sicherheit und Verbraucherschutz (BMUV) hat KI beispielsweise das Potenzial, die Abfallsortierung zu optimieren und damit Recyclingquoten von Kunststoffen, Textilien oder Gewerbeabfällen zu erhöhen (BMUV, 2024). Während solche positiven Aspekte von KI, wie auch die Effizienzsteigerung und Prozessoptimierung, breit diskutiert werden, könnte der bedeutende Energieverbrauch für das Training und den Betrieb von KI-Systemen trotzdem unbeabsichtigte ökologische Fußabdrücke hinterlassen. Diese umfassen nicht nur den direkten Energieverbrauch, den KI-Systeme benötigen, sondern auch indirekte Folgen, welche durch die Art und Weise entstehen, wie KI-Technologien eingesetzt werden. Wussten Sie, dass eine Suche mit ChatGPT vier- bis fünfmal mehr Energie als eine konventionelle Websuche verbraucht (Deutscher Bundestag, 2024)? In der Bau- und Immobilienwirtschaft, wo Nachhaltigkeit und ökologische Verantwortung zunehmend an Bedeutung gewinnen, sind diese Fragen besonders relevant.

Beispiel: KI-gesteuerte Gebäudeautomation

Ein Beispiel für die ökologischen Auswirkungen der Künstlichen Intelligenz in der Bau- und Immobilienwirtschaft ist die Implementierung von KI-gesteuerten Gebäudeautomationssystemen. Diese Systeme steuern Heizung, Lüftung, Klimaanlage und Beleuchtung in Echtzeit, um Energieeffizienz zu maximieren. Während solche Systeme auf den ersten Blick dazu beitragen, den Energieverbrauch zu senken und Gebäude nachhaltiger zu gestalten, können sie auch unbeabsichtigte Folgen haben. Beispielsweise kann die für den Betrieb der KI notwendige Hardware signifikante Mengen an Energie verbrauchen. Zudem kann die Herstellung, der Betrieb und die Entsorgung dieser Systeme zu einem erhöhten ökologischen Fußabdruck führen, insbesondere wenn die verwendeten Materialien nicht nachhaltig beschafft oder recycelt werden.

Herausforderungen

  1. Hoher Energieverbrauch: KI-Systeme, insbesondere jene, die auf intensiven maschinellen Lernverfahren basieren, erfordern enorme Rechenleistungen. Große Datenzentren, die für das Training von KI-Modellen benötigt werden, verbrauchen bedeutende Mengen an Strom, oft generiert aus nicht erneuerbaren Energiequellen.
  2. Elektronischer Abfall: Mit der schnellen Entwicklung neuer KI-Technologien werden Hardware-Komponenten häufig ersetzt, was zu einem Anstieg des Elektroschrotts führt. Diese Abfallprodukte können schädliche Chemikalien enthalten, die, wenn sie nicht ordnungsgemäß entsorgt werden, Umweltschäden verursachen können.
  3. Ressourcenintensive Produktion: Die Herstellung der Hardware, die für KI-Systeme erforderlich ist, wie spezialisierte Prozessoren und Speichergeräte, erfordert bedeutende Mengen an Rohstoffen und Energie. Die Extraktion und Verarbeitung dieser Materialien kann erhebliche Umweltbelastungen verursachen.
  4. Auswirkungen auf die Landnutzung: Der Ausbau der Infrastruktur, der zur Unterstützung von KI-Systemen benötigt wird, insbesondere Datenzentren und Netzwerkinfrastruktur, kann zu einer veränderten Landnutzung führen, die lokale Ökosysteme und die biologische Vielfalt beeinträchtigen kann.

Gegenmaßnahmen

Um die ökologischen Auswirkungen der Künstlichen Intelligenz zu minimieren, sollten folgende Maßnahmen in Betracht gezogen werden:

  1. Effizienzsteigerung: Durch die Optimierung der Algorithmen können KI-Systeme effizienter gestaltet werden, was den Energieverbrauch reduziert. Fortschritte in der Hardwareentwicklung, wie energieeffizientere Prozessoren, sind ebenfalls entscheidend.
  2. Nachhaltige Energiequellen: Der Betrieb von Datenzentren und anderen infrastrukturellen Komponenten sollte, wo möglich, mit erneuerbaren Energiequellen erfolgen.
  3. Recycling und Wiederverwendung: Eine verbesserte Recyclinginfrastruktur für Elektronikprodukte und die Förderung der Wiederverwendung von Komponenten können helfen, den Elektroschrott zu reduzieren.
  4. Regulatorische Maßnahmen: Gesetzliche Vorgaben können Unternehmen dazu anhalten, Umweltstandards in der Entwicklung und Nutzung von KI-Technologien einzuhalten.
  5. Bewusstsein und Bildung: Die Aufklärung der Öffentlichkeit und der Stakeholder über die ökologischen Auswirkungen von KI ist entscheidend, um das Bewusstsein für diese Themen zu schärfen und nachhaltige Praktiken zu fördern.

Die Künstliche Intelligenz hat das Potenzial, die Bau- und Immobilienwirtschaft grundlegend zu verändern und nachhaltiger zu gestalten. Doch dürfen dabei die ökologischen Auswirkungen nicht übersehen werden. Durch bewusste Anstrengungen zur Reduzierung des ökologischen Fußabdrucks von KI-Technologien können wir sicherstellen, dass der Fortschritt nicht auf Kosten unserer Umwelt erfolgt.

9. Manipulation und Kontrolle durch Künstliche Intelligenz

Die Fähigkeit von Künstlicher Intelligenz, Verhalten vorherzusagen, kann für viele Anwendungen extrem hilfreich sein. Doch solch eine Unterstützung kann in subtiler Weise zur Manipulation von Nutzerinnen und Nutzern führen, was ethische Fragen aufwirft. Dieser Aspekt ist bereits in der Öffentlichkeit unter dem Begriff „Deep Fake“ bekannt (zum Umgang mit Deep Fakes siehe BSI, 2024). In einer aktuellen Ausgabe der Zeitschrift Science sprechen führende KI-Experten, u.a. Geoffrey Hinton, Andrew Yao und Dawn Song, sogar von einer gesellschaftlichen Manipulation durch KI (Bengio et al., 2024). In der Bau- und Immobilienwirtschaft, wo Entscheidungen weitreichende finanzielle und persönliche Konsequenzen haben können, sind solche Aspekte ebenfalls relevant.

Beispiel: KI in der Immobilienvermarktung

Ein Beispiel für die potenzielle Manipulation durch KI findet sich in der Immobilienvermarktung. Hier können KI-gesteuerte Algorithmen genutzt werden, um potenzielle Käufer oder Mieter basierend auf einer Vielzahl von Daten zu identifizieren und anzusprechen. Durch die Analyse von Online-Verhalten, Kaufgewohnheiten und sogar persönlichen Präferenzen können diese Systeme hochgradig personalisierte Werbung schalten, die darauf abzielt, die Entscheidungsfindung der Nutzerinnen und Nutzer massiv zu beeinflussen. Während dies aus Marketingsicht effektiv sein mag, wirft es ernste Fragen hinsichtlich der Privatsphäre und der Autonomie der betroffenen Personen auf.

Herausforderungen

  1. Verlust der Privatsphäre: KI-Systeme, die in der Lage sind, umfangreiche Datenmengen zu sammeln und zu analysieren, können ein detailliertes Bild einer Person erstellen. Dies kann zu einem Eingriff in die persönliche Privatsphäre führen, wenn Individuen ohne ihr Wissen oder ihre Zustimmung überwacht werden.
  2. Zielgerichtete Beeinflussung: Durch die Analyse von Verhaltensdaten können KI-Modelle genutzt werden, um spezifische Bevölkerungsgruppen gezielt zu beeinflussen oder zu manipulieren. Dies kann von der Förderung bestimmter Produkte bis hin zur Beeinflussung von Wohnungsentscheidungen reichen, was ethische Bedenken hinsichtlich der Fairness und Transparenz aufwirft.
  3. Verstärkung von Bias: Wenn die Daten, die zur Training von KI-Systemen verwendet werden, voreingenommen sind, kann dies zu Entscheidungen führen, die bestehende soziale Ungleichheiten verstärken. In der Immobilienwirtschaft könnte dies bedeuten, dass bestimmte Gruppen benachteiligt werden, was den Zugang zu Wohnraum oder Krediten betrifft.

Gegenmaßnahmen

Um die Risiken der Manipulation und Kontrolle durch KI zu mindern, sollten folgende Maßnahmen in Betracht gezogen werden:

  1. Transparenz und Offenlegung: Unternehmen sollten transparent machen, welche Daten gesammelt werden und wie sie verwendet werden. Nutzer sollten klar darüber informiert werden, wie ihre Daten zur Beeinflussung von Entscheidungen verwendet werden könnten.
  2. Datenschutzbestimmungen stärken: Starke Datenschutzbestimmungen sind entscheidend, um zu gewährleisten, dass persönliche Daten nicht missbraucht werden. Dies schließt Gesetze ein, die den unautorisierten Zugriff auf oder die Verwendung von persönlichen Daten verbieten.
  3. Ethische Richtlinien für den KI-Einsatz: Die Entwicklung und Durchsetzung ethischer Richtlinien für den Einsatz von KI kann helfen, die Integrität von Entscheidungsprozessen zu wahren. Diese Richtlinien sollten Fairness, Genauigkeit und Unparteilichkeit betonen.
  4. Förderung von KI-Kompetenz: Bildungsinitiativen, die das Bewusstsein und Verständnis von KI fördern, können Individuen besser darauf vorbereiten, die Möglichkeiten und Risiken dieser Technologien zu verstehen und sich davor zu schützen.
  5. Regulatorische Überwachung: Regierungen und Aufsichtsbehörden sollten aktive Rollen in der Überwachung der Entwicklung und Anwendung von KI-Technologien übernehmen, um sicherzustellen, dass diese Technologien im besten Interesse der Öffentlichkeit eingesetzt werden.

Durch den verantwortungsbewussten Umgang mit KI und die Implementierung von Maßnahmen zur Sicherstellung der Privatsphäre und Autonomie können wir sicherstellen, dass diese Technologien zum Wohle aller eingesetzt werden, ohne unerwünschte Manipulation und Kontrolle zu fördern.

10. Verlust von menschlichem Urteilsvermögen durch Künstliche Intelligenz

Die Künstliche Intelligenz beeinflusst zahlreiche Bereiche mit ihrer Fähigkeit, große Datenmengen zu verarbeiten und daraus komplexe Entscheidungen abzuleiten. Während diese Technologie unbestreitbare Vorteile bietet, gibt es auch ernsthafte Bedenken, insbesondere hinsichtlich des Verlustes von menschlichem Urteilsvermögen. Unter anderem der Verlust von menschlichen Kompetenzen und Fertigkeiten ein ernstzunehmendes Risiko (Deutscher Ethikrat, 2023). Der Verlust des menschlichen Urteilsvermögens hat bedeutende Implikationen für alle Sektoren, wo Entscheidungen weitreichende soziale, ökonomische und ökologische Auswirkungen haben können. Die Abhängigkeit von KI-Entscheidungen könnte dazu führen, dass menschliches Urteilsvermögen und Intuition vernachlässigt werden, besonders in Bereichen, die ein tiefes Verständnis für komplexe Kontexte erfordern.

Beispiel: Automatisierte Projektmanagement-Tools

Ein Beispiel für den potenziellen Verlust von menschlichem Urteilsvermögen durch Künstliche Intelligenz findet sich in der zunehmenden Verwendung von automatisierten Projektmanagement-Tools in der Bauwirtschaft. Diese Systeme nutzen Algorithmen, um Projekte zu planen, Ressourcen zuzuweisen und den Baufortschritt zu überwachen. Während solche Tools die Effizienz steigern können, indem sie optimale Entscheidungen schneller als Menschen treffen, besteht die Gefahr, dass Nuancen und Kontext, die menschliches Urteilsvermögen bieten, verloren gehen. Zum Beispiel könnte ein KI-System entscheiden, bestimmte Baumaterialien aufgrund von Kosten- und Verfügbarkeitsalgorithmen zu verwenden, ohne die langfristigen Umweltauswirkungen oder die spezifischen Anforderungen des lokalen Klimas zu berücksichtigen, die ein erfahrener Planer oder eine Planerin erkennen würde.

Herausforderungen

  1. Übermäßige Abhängigkeit von Technologie: Wenn Entscheidungsträger zunehmend auf KI-Systeme vertrauen, besteht die Gefahr, dass menschliche Fähigkeiten zur kritischen Bewertung und Problemlösung verkümmern. Dies kann besonders problematisch sein, wenn Systeme fehlerhaft sind oder unvorhergesehene Situationen auftreten, die außerhalb des Trainingsdatensatzes der KI liegen.
  2. Verlust von Kontextsensitivität: KI-Systeme sind oft nicht in der Lage, den vollständigen Kontext einer Situation zu erfassen, insbesondere wenn subtile soziale, kulturelle oder emotionale Faktoren eine Rolle spielen. Im Bauwesen könnte dies bedeuten, dass ethische Überlegungen oder langfristige Auswirkungen von Entscheidungen nicht vollständig berücksichtigt werden.
  3. Verantwortungsdiffusion: Wenn Entscheidungen zunehmend von Algorithmen getroffen werden, kann es schwieriger werden, Verantwortung für Fehlentscheidungen zu übernehmen. Dies kann zu einer „Verantwortungslücke“ führen, wo niemand direkt für Fehler oder deren Konsequenzen verantwortlich gemacht wird.

Gegenmaßnahmen

Um den Verlust von menschlichem Urteilsvermögen zu minimieren und die positiven Aspekte der Künstlichen Intelligenz zu nutzen, sollten folgende Maßnahmen erwogen werden:

  1. Hybride Entscheidungsmodelle: Unternehmen sollten Modelle entwickeln, die KI-Systeme und menschliche Expertise kombinieren. Menschliche Aufsicht und Eingriffe sollten in allen Phasen des Entscheidungsprozesses vorgesehen werden, um sicherzustellen, dass KI-gestützte Entscheidungen kontinuierlich auf ihre Angemessenheit und Richtigkeit überprüft werden.
  2. Ständige Weiterbildung: Es ist entscheidend, dass Fachkräfte in der Bau- und Immobilienwirtschaft kontinuierlich geschult werden, um mit den neuesten Technologien Schritt zu halten und deren Grenzen zu verstehen. Weiterbildung in ethischen und kritischen Denkfähigkeiten ist ebenso wichtig.
  3. Entwicklung ethischer Richtlinien für KI: Organisationen sollten ethische Richtlinien für den Einsatz von KI entwickeln, die sicherstellen, dass Technologie nicht nur effizient, sondern auch verantwortungsbewusst und im Einklang mit den übergeordneten Zielen der Organisation eingesetzt wird.
  4. Förderung von Technologie-Assessment: Regelmäßige Bewertungen der eingesetzten KI-Systeme hinsichtlich ihrer Auswirkungen, Effektivität und potenzieller Risiken können helfen, Probleme frühzeitig zu erkennen und zu adressieren.
  5. Stärkung der Unternehmenskultur: Eine Kultur, die Wert auf menschliches Urteilsvermögen und ethische Überlegungen legt, kann dazu beitragen, dass Entscheidungsträger die von KI-Systemen bereitgestellten Empfehlungen kritisch hinterfragen.

Durch die Implementierung von Strategien, die sowohl die technologische Innovation fördern als auch das kritische und kontextuelle Denken schätzen, können Unternehmen sicherstellen, dass sie die Vorteile der KI voll ausschöpfen, ohne die menschliche Expertise und Ethik zu untergraben.

11. Homogenisierung von Wissen durch Künstliche Intelligenz

Die rasante Entwicklung von KI in zahlreichen Bereichen hat die Art und Weise, wie Wissen erzeugt, verteilt und genutzt wird, bereits sehr verändert. Während KI enorme Potenziale zur Erschließung neuer Erkenntnisse bietet, wächst die Sorge um eine mögliche Homogenisierung des Wissens. Der KI-Forscher Andrew J. Peterson spricht in diesem Zusammenhang von einem Wissenskollaps (im Original: Knowledge Collapse). Seiner Meinung nach kann der massive Einsatz von KI zur Wissensgenerierung und -vermittlung zu einer Homogenisierung und Einschränkung des öffentlich verfügbaren Wissens führen (Peterson, 2024). Diese Sorge bezieht sich auf die Tendenz von KI-Systemen, die Vielfalt der Perspektiven und Informationen zu reduzieren, indem sie Informationen bevorzugen, die als am relevantesten oder beliebtesten gelten. Der Bildungswissenschaftler Peter Gerjets vom Leibniz-Institut für Wissensmedien in Tübingen geht sogar noch weiter, in dem er die Meinung vertritt, dass ChatGPT den aktiven Lernprozess ausgelagert und das Gehirn nicht mehr gefordert wird, was dazu führt, dass ungenutzte Hirnareale geschwächt werden (Forschung & Lehre, 2024). In gewisser Form auch durchaus nachvollziehbar. Das kann zum Beispiel auch in Zukunft ein Grund dafür sein, dass neues Wissen kaum noch von Menschen selbst generiert werden kann. In diesem Kontext empfehle ich gerne eines der Bücher meines Kollegen Mario Herger: Wenn Affen von Affen lernen. In der Bau- und Immobilienwirtschaft können solche Entwicklungen ebenfalls tiefgreifende Konsequenzen haben.

Beispiel: KI-gestützte Forschung in der Bau- und Immobilienwirtschaft

Ein Beispiel für die Homogenisierung von Wissen durch Künstliche Intelligenz findet sich in der Nutzung von KI-Systemen zur Analyse und Prognose von Markttrends in der Immobilienwirtschaft. Beispielsweise sammelt und verarbeitet ein System große Mengen an Daten zu Immobilienverkäufen, Preisen, Käuferverhalten und wirtschaftlichen Indikatoren, um Muster zu erkennen und Vorhersagen zu treffen. Während diese Werkzeuge Entscheidungsträgern wertvolle Einblicke bieten können, neigen sie womöglich auch dazu, vorherrschende Trends zu verstärken und alternative, weniger offensichtliche Perspektiven zu übersehen. Das Ergebnis ist eine Standardisierung des Wissens, die innovative Ansätze und lokal spezifische Lösungen unterdrücken kann, insbesondere in dynamischen oder unkonventionellen Märkten.

Herausforderungen

  1. Reduktion der Vielfalt: KI-Systeme, die darauf trainiert sind, effizienzorientierte oder populäre Lösungen zu priorisieren, können dazu führen, dass weniger verbreitete, aber potenziell wertvolle Informationen und Ansätze vernachlässigt werden. Diese Einengung der Wissensbasis kann die Kreativität und Innovation einschränken.
  2. Verstärkung bestehender Vorurteile: Wenn die Daten, die zum Training von KI-Systemen verwendet werden, bereits Verzerrungen aufweisen, kann die Künstliche Intelligenz diese Vorurteile weiter verstärken. In der Immobilienwirtschaft könnte dies zu diskriminierenden Praktiken führen, wenn etwa bestimmte Stadtteile systematisch unter- oder überbewertet werden.
  3. Abhängigkeit von Technologie: Eine starke Abhängigkeit von KI-gestützten Analysen kann dazu führen, dass menschliche Fähigkeiten zur kritischen Bewertung und zum tiefgreifenden Verständnis von Marktdynamiken unterentwickelt bleiben oder verloren gehen. Die Fähigkeit des kritischen Denkens wird damit womöglich ebenso erheblich herabgesetzt.

Gegenmaßnahmen

Um den negativen Auswirkungen der Homogenisierung von Wissen durch Künstliche Intelligenz entgegenzuwirken, können verschiedene Maßnahmen ergriffen werden:

  1. Förderung von Diversität in Datenquellen: Es ist wichtig, eine breite Palette von Datenquellen zu nutzen, die verschiedene Perspektiven und Informationen widerspiegeln. Dies kann helfen, die Robustheit und Vielfalt der von KI-Systemen generierten Erkenntnisse zu erhöhen. Ähnlich dem Prinzip, dass Vielseitigkeit in einem Team bereichernd sein kann.
  2. Transparenz und Offenheit: Die Offenlegung der Funktionsweise von KI-Systemen und der Kriterien, die sie bei der Entscheidungsfindung verwenden, kann dazu beitragen, Nutzerinnen und Nutzer für mögliche Verzerrungen zu sensibilisieren und eine kritischere Nutzung der Technologie zu fördern.
  3. Interdisziplinäre Ansätze: Die Integration von Expertenwissen aus verschiedenen Disziplinen kann dazu beitragen, die Entwicklung und Anwendung von KI-Systemen zu bereichern und zu einer umfassenderen Sichtweise auf Probleme und Lösungen zu führen. Verschiedenartige Sichtweisen und Interpretationen können dabei sehr hilfreich werden.
  4. Kontinuierliche Überprüfung und Anpassung: KI-Systeme sollten regelmäßig überprüft und aktualisiert werden, um sicherzustellen, dass sie relevante und diverse Daten angemessen berücksichtigen und nicht veraltete oder verzerrte Muster verfestigen.
  5. Bildung und Training: Die Förderung des Bewusstseins und des Verständnisses für die Funktionsweise und Grenzen von KI bei allen Stakeholdern – von Entwicklerinnen und Entwicklern bis zu Endnutzerinnen und Endnutzern – ist wichtig, um eine kritische und informierte Nutzung dieser Technologien zu gewährleisten. Das beginnt bereits in der Schule und sollte sich kontinuierlich in Studium und Ausbildung wie auch am Arbeiotsplatz oder im Privaten fortsetzen. Lebenslanges Lernen auch bei KI ist angesagt!

Durch eine bewusste Gestaltung und den Einsatz von KI-Technologien können wir sicherstellen, dass diese Werkzeuge die Vielfalt des menschlichen Wissens erweitern, anstatt sie zu beschränken. Dadurch wird nicht nur die Innovationsfähigkeit der Branche gestärkt, sondern auch ein umfassenderer und gerechterer Zugang zu Informationen gewährleistet.

12. Standardisierung von Marktanalysen durch Künstliche Intelligenz

Wer hat sie noch nicht gelesen, die großen Slogans und Versprechen: Umsatz steigern mit KI, Durch KI Wettbewerbsvorteile erhöhen, KI gestützte Marktforschung – Ihr Schlüssel zum Erfolg, KI-gestützte Einkaufsoptimierung durch Marktanalyse und so weiter und sofort. Was davon wirklich KI ist und was KI-Washing ist, lasse ich jetzt mal unkommentiert. Einen Beirag zum Thema KI-Washing und wie sie dieses Phänomen erkennen finden Sie übrigens hier.

Tatsächlich, in der Bau- und Immobilienwirtschaft können KI-gestützte Analysetools eine bisher unerreichte Effizienz bei der Verarbeitung und Interpretation großer Datenmengen ermöglichen. Während diese Technologien wertvolle Einblicke und Prognosen liefern, die Entscheidungsprozesse verbessern, führt die Homogenisierung von Wissen durch Künstliche Intelligenz (siehe Punkt 11) auch zu einer Standardisierung von Bewertungsmethoden, die wenig Raum für lokale Besonderheiten lassen. Diese Entwicklung kann zu einem Verlust an nuancierter Betrachtung und individueller Anpassung führen, was langfristig die Innovationskraft und Anpassungsfähigkeit des Marktes beeinträchtigen kann.

Beispiel: KI-gestützte Bewertungssysteme für Immobilien

Ein Beispiel, wo die Standardisierung durch Künstliche Intelligenz in der Immobilienwirtschaft offensichtlich werden kann, ist die Nutzung von KI-gestützten Bewertungssystemen. Diese Systeme analysieren eine Vielzahl von Datenpunkten – von vergangenen Verkaufspreisen über Nachbarschaftsdaten bis hin zu aktuellen Markttrends –, um den Wert von Immobilien zu schätzen. Obwohl solche Tools objektive und schnelle Bewertungen ermöglichen, können Sie dazu neigen, die einzigartigen Eigenschaften einzelner Immobilien und die besonderen Umstände der Umgebung zu übersehen. Beispielsweise könnte ein Algorithmus, der auf Daten aus vorwiegend städtischen oder hochentwickelten Märkten trainiert wurde, inadäquate Bewertungen für Immobilien in ländlichen oder weniger entwickelten Gebieten liefern. Und Nutzerinnen und Nutzern ohne ausgeprägtem kritischen Bewußstsein würde das nichtmal auffallen!

Herausforderungen

  1. Verlust der lokalen Expertise: Lokales Marktwissen und die Intuition erfahrener Immobilienexperten sind oft entscheidend für die Bewertung von Immobilien und die Beratung von Kunden. KI-Systeme, die hauptsächlich auf standardisierten Datenmodellen basieren, können diese feinen Nuancen missachten.
  2. Reduzierte Diversität der Marktstrategien: Wenn alle Marktteilnehmenden auf dieselben KI-Tools und -Daten zugreifen, kann dies zu einer Konvergenz von Strategien führen. Diese Uniformität vermindert die Wettbewerbsvielfalt und kann zu einem Markt führen, der weniger resilient gegenüber ökonomischen Schwankungen ist. KI gestützte Marktforschung kann dann eher kontraproduktiv werden und alle Marktakteure gefährden.
  3. Übermäßige Abhängigkeit von Technologie: Eine starke Abhängigkeit von KI-Analysen kann dazu führen, dass menschliche Entscheidungsträgerinnen und Entscheidungsträger ihre Fähigkeit zur kritischen Analyse und zum unabhängigen Denken verlieren. Das könnte insbesondere in Krisenzeiten problematisch werden, wenn schnelles und angepasstes Handeln erforderlich ist.

Gegenmaßnahmen

Um die negativen Auswirkungen der Standardisierung von Marktanalysen durch Künstliche Intelligenz zu minimieren, sind folgende Maßnahmen hilfreich:

  1. Integration menschlicher Überprüfung: Um die Genauigkeit und Relevanz von KI-Analysen zu gewährleisten, sollte regelmäßig eine menschliche Überprüfung der von KI-Systemen generierten Ergebnisse erfolgen. Sozusagen ein „Vier-Augen-Prinzip“ wovon zwei Augen der Mensch beisteuern sollte. Das kann helfen, dass die Analysen den lokalen Gegebenheiten und spezifischen Marktbedingungen entsprechen.
  2. Förderung von Diversität in Datenquellen: Um eine breitere Perspektive zu gewährleisten, sollten Daten aus einer Vielzahl von Quellen in die KI-Modelle integriert werden. Das beinhaltet auch historische, soziale und kulturelle Daten, die helfen können, ein vollständigeres Bild des Marktes zu zeichnen.
  3. Weiterbildung und Entwicklung: Es ist wichtig, dass Fachkräfte in der Immobilienwirtschaft ständig geschult werden, um die Funktionsweise und vor allem Grenzen von KI-Systemen zu verstehen. Weiterbildung in datenwissenschaftlichen Grundlagen, Ethik und kritischer Analyse kann dazu beitragen, eine zu starke Abhängigkeit von automatisierten Systemen zu vermeiden.
  4. Regulatorische Rahmenbedingungen: Aufsichtsbehörden und Branchenverbände (z.B. VDI, IVD, BVI, BVFI , BID etc.) sollten Richtlinien und Standards für den Einsatz von KI in der Marktanalyse entwickeln, die Transparenz, Fairness und Diversität fördern.
  5. Förderung von Innovation und Wettbewerb: Durch die Unterstützung von Start-ups und die Förderung von Forschung in der Entwicklung und Nutzung neuen Technologien können frische Ideen und alternative Ansätze in die Branche eingebracht werden, welche die Tendenz zur Standardisierung durchbrechen.

Durch bewusste Anstrengungen zur Bewahrung der Diversität, Integration menschlicher Expertise und Entwicklung robuster regulatorischer Rahmenbedingungen können wir sicherstellen, dass KI-Technologien den Markt bereichern, ohne seine Komplexität und Vielfalt zu untergraben.

13. Verlust eigener Kreativität durch Künstliche Intelligenz

Während der ISARC Conference 2018 in Berlin habe ich mit meinen Kollegen unser Paper zum Einfluss von automatisierten Baukonstruktionssystemen auf die die berufliche Bildung vorgestell (Karl et al., 2018). Dabei hatte ich auch die Gelegenheit mit Kollegen aus der Architektur zu sprechen. Auf meine Frage hin, dass eine KI wohl nicht in der Lage sei die eigene Kreativität ersetzen zu können, wurde ich von der Antwort überrascht. Der eine oder andere Kollege war zu dem Zeitpunkt bereits der Ansicht, dass das für eine KI in naher Zukunft kein Problem mehr sei.

Im Hier und Jetzt überrascht mich die Antwort nun nicht mehr. Doch die übermäßige Abhängigkeit von KI-gestützten Lösungen kann in Zukunft dazu führen, dass individuelle kreative Prozesse und originelle Ideenfindung mehr und mehr in den Hintergrund treten. Dieser Verlust wird besonders in kreativen und designorientierten Branchen zum Tragen kommen. So auch in der Bau- und Immobilienwirtschaft, wo Künstliche Intelligenz zunehmend in den Entwurfs- und Planungsprozess integriert wird. In diesem Kontext empfehle ich, in das Themendossier „Künstliche Intelligenz in der Kultur und Kreativwirtschaft“ des Kompetenzzentrum Kultur- und Kreativwirtschaft des Bundes reinzuschauen. Die Thesen und Inhalte sind sehr lesenswert.

Beispiel: KI in Architektur und Design

In der Architekturbranche werden zunehmend KI-Programme eingesetzt, um Gebäudeentwürfe zu optimieren, indem sie automatisch Planungsparameter anpassen, um Effizienz, Kosten und sogar ästhetische Aspekte zu optimieren. Ein konkretes Beispiel hierfür wären KI-Systeme, welche auf die Generierung von Gebäudemodellen spezialisiert sind und klimatische Bedingungen und Energieeffizienz in ihren Designs berücksichtigen. Während solche Tools Architektinnen und Architekten unterstützen können, indem sie schnell eine Vielzahl von Designoptionen erstellen, besteht die Sorge, dass sie letztendlich die Rolle menschlicher Designer in der kreativen Phase der Architektur ersetzen und zu einer Standardisierung der Baustile führen könnten. Das könnte schließlich dazu führen, dass innovative, unkonventionelle oder kulturell spezifische Designs, die aus dem tiefen, intuitiven Verständnis menschlicher Designerinnen und Designer entstehen, weniger werden.

Herausforderungen

  1. Reduzierung kreativer Vielfalt: KI-Systeme sind oft darauf programmiert, die „beste“ Lösung basierend auf bestimmten Algorithmen zu finden, die möglicherweise nicht die kreativen und kulturellen Aspekte eines Bauwerks berücksichtigen, welche eben auch schwer zu quantifizieren und für ein KI-System erfassbar sind.
  2. Abhängigkeit von Technologie: Mit zunehmender Abhängigkeit von KI-Tools könnten kommende Generationen von Architektinnen und Architekten wichtige Fähigkeiten im Bereich des kreativen Denkens und der Problemlösung verlieren, da die Technologie die meiste „Denkarbeit“ übernimmt.
  3. Verlust der persönlichen Note: In der Architektur und im Design ist die persönliche Note der Schöpferin und des Schöpfers oft das, was ein Bauwerk einzigartig und bedeutungsvoll macht. Übermäßige Automatisierung durch KI könnte diese individuellen Ausdrücke minimieren und Bauwerke verlieren an Persönlichkeit.

Gegenmaßnahmen

Um den negativen Auswirkungen von KI auf die menschliche Kreativität entgegenzuwirken, können folgende Maßnahmen ergriffen werden:

  1. Ergänzende Nutzung von KI: Statt KI als Ersatz für menschliche Kreativität zu sehen, sollte sie als Werkzeug genutzt werden, das menschliche Fähigkeiten erweitert. Dies bedeutet, dass KI genutzt wird, um Routineaufgaben zu automatisieren, während kreative Entscheidungen weiterhin vom Menschen getroffen werden.
  2. Aus- und Weiterbildung: Bildungseinrichtungen und Unternehmen sollten darauf achten, dass die Ausbildung von Architektinnen und Architekten weiterhin Schwerpunkte auf kreativem Denken, innovativem Design und kritischer Bewertung legt, auch in einem technologiegetriebenen Umfeld.
  3. Interdisziplinäre Ansätze fördern: Durch die Zusammenarbeit verschiedener Disziplinen können neue Perspektiven in den Designprozess einfließen. Das kann helfen, die Einschränkungen zu überwinden, welche durch eine zu enge Fokussierung auf technologiebasierte Lösungen entstehen.
  4. Kulturelle und kontextuelle Sensibilität: Es ist wichtig, dass KI-Systeme in der Lage sind, kulturelle und kontextuelle Nuancen zu erkennen und zu integrieren. Das erfordert die Einbeziehung von Experten aus verschiedenen kulturellen und geografischen Hintergründen in die Entwicklung von KI-Systemen.
  5. Ethische Richtlinien entwickeln: Organisationen sollten ethische Richtlinien für den Einsatz von KI in kreativen Prozessen entwickeln. Diese Richtlinien sollten den Schutz der kreativen Freiheit und die Förderung der kulturellen Vielfalt als zentrale Werte betonen. Bestehende Richtlinien sollten dahingehen überprüft und ggf. erweitert werden. Einen Beitrag zur EU KI-Verordnung finden Sie hier.

Während Künstliche Intelligenz das Potenzial hat, den Design- und Bauprozess zu transformieren, ist es wichtig, dass wir uns des möglichen Verlustes von Kreativität im Klaren sein sollten. Durch den bewussten und ethisch verantwortlichen Einsatz von KI können wir sicherstellen, dass Technologie die menschliche Kreativität ergänzt und bereichert, anstatt sie zu ersetzen.

14. Mangel an individueller Ausdrucksform durch Künstliche Intelligenz

Die Zusammenarbeit des Menschen mit KI muss nicht immer direkt über einen ziel- und ergebnisorientierten spezifischen Algorithmus erfolgen. Vielmehr können aus der Aufbereitung der Daten über Umwege auch zahlreiche „Nebenerzeugnisse” entstehen. Über die Flut von Daten entstehen dann sogar neue Einsichten auf Eigenheiten im menschlichen Verhalten. Durch solche Learnings können wir beispielsweise das Design oder die Struktur von Begegnungsräumen und Architekturen gestalten (Bodrožić-Brnić & Fitzek, 2023).

Demgegenüber kann die Nutzung von KI in der Architektur- und Designphase auch zu einer Überbetonung von vorgefertigten Lösungen führen, was die individuelle Ausdrucksform der Architektinnen und Architekten einschränken kann. Durch die Standardisierung von Designprozessen besteht somit die Gefahr, dass einzigartige architektonische Konzepte und persönliche Handschriften von Architektinnen und Architekten durch homogenisierte, algorithmisch generierte Designs ersetzt werden. Diese Entwicklung könnte zu einer Verarmung der architektonischen Vielfalt und der kulturellen Identität der gebauten Umwelt führen und auch die Wertschätzung der architektonsichen Arbeit in der Gesellschaft herabsetzen.

Beispiel: KI-gesteuerte Planungswerkzeuge in der Wohnungsbaubranche

Ein Beispiel für den potenziellen Mangel an individueller Ausdrucksform durch Künstliche Intelligenz kann sich in der Nutzung von KI-gesteuerten Planungswerkzeugen in der Wohnungsbaubranche finden. Diese Werkzeuge können Algorithmen mutzen, um Grundrisse und Gebäudeentwürfe basierend auf einer Reihe von vordefinierten Parametern wie Kosten, Flächeneffizienz und Umweltverträglichkeit zu optimieren. Während solche Systeme in der Lage sein werden, schnell eine große Anzahl von Designvarianten zu generieren, tendieren sie womöglich auch dazu, ästhetisch ähnliche Lösungen zu bevorzugen, welche alle auf denselben algorithmischen Grundlagen basieren. Das kann schließlich dazu führen, dass neue Wohngebiete, welche ausschließlich mit solcher Software entworfen wurden, einen uniformen und sterilen Charakter aufweisen, der wenig Raum für individuelle Präferenzen oder kulturelle Besonderheiten lässt.

Herausforderungen

  1. Reduzierte kreative Freiheit: Architektinnen und Architekten können sich zunehmend darauf verlassen, dass KI-Lösungen die meiste „Denkarbeit“ übernehmen, was zu einer Verringerung ihrer eigenen kreativen Beteiligung führt. Das Ergebnis sind standardisierte Designs, die sich weniger durch künstlerische oder kulturelle Überlegungen als durch algorithmische Effizienz auszeichnen.
  2. Verlust von kultureller Relevanz: Architektur ist ein Spiegel der Gesellschaft und drückt oft lokale Traditionen, Geschichte und soziale Werte aus. KI-Modelle, welche globale Daten verwenden und nicht auf lokale Kontexte zugeschnitten sind, können unfähig sein, diese Nuancen in ihren Entwürfen zu berücksichtigen.
  3. Homogenisierung des städtischen Raums: Wenn immer mehr Projekte mit denselben algorithmischen Werkzeugen geplant werden, könnte dies zu einer Homogenisierung der gebauten Umwelt führen, in der Städte und Gemeinden weltweit zunehmend ähnlich aussehen.

Gegenmaßnahmen

  1. Hybride Designansätze: Eine Kombination aus KI-gestützten Tools und traditionellen, handgeführten Designmethoden könnte helfen, die Vorteile der Technologie zu nutzen, während gleichzeitig Raum für individuelle Kreativität gelassen wird. Architektinnen und Architekten sollten Künstliche Intelligenz als ein Werkzeug betrachten, das ihre Fähigkeiten erweitert, nicht als Ersatz.
  2. Anpassung der KI an lokale Bedürfnisse: Die Entwicklung von KI-Systemen, die lokale architektonische Stile, Materialien und kulturelle Kontexte berücksichtigen, könnte helfen, die Relevanz und Akzeptanz der Technologie zu verbessern.
  3. Förderung von Innovation und Vielfalt: Architekturschulen und -firmen sollten Innovation und experimentelles Design fördern, um sicherzustellen, dass die nächste Generation von Architekten sowohl technisch versiert als auch kreativ unabhängig ist.
  4. Regulatorische und ethische Rahmenbedingungen: Die Entwicklung von Richtlinien und Standards, welche die Nutzung von KI in der Architektur regeln, kann dazu beitragen, dass Technologie im Sinne des öffentlichen Interesses und unter Wahrung der kreativen Vielfalt eingesetzt wird.

Die Integration von Künstlicher Intelligenz in der Architektur bietet bedeutende Möglichkeiten, wirft jedoch auch wichtige Fragen hinsichtlich des Erhalts der kreativen und kulturellen Dimensionen des Bauens auf. Durch einen ausgewogenen Ansatz, welcher die technologischen Innovationen mit einem breiten Verständnis und notwendigen Respekt für lokale Traditionen und individuelle Kreativität verbindet, können Architektinnen und Architekten sicherstellen, dass unsere gebaute Umwelt in Zukunft sowohl intelligent ist als auch inspirierend für uns bleibt.

15. Untergrabung kultureller und architektonischer Vielfalt durch Künstliche Intelligenz

Die Punkte 13. und 14. haben uns bereits Hinweise darauf gegeben, dass das Verhältnis zwischen Kultur und Kunst zu Künstlicher Intelligenz sehr ambivalent ist. Aktuell stellt sich zum Beispiel die Frage, ob KI-Technologien eine Bereicherung oder eine Herausforderung für die menschliche Kreativität und die Kulturproduktion ist. Erste Auswirkungen zeigen sich bereits: In den USA hat die „Writers Guild of America“ (WGA) mit den großen amerikanischen Filmproduzenten vereinbart, dass KI-Technologien nicht für die Erstellung von Drehbüchern genutzt werden dürfen (Anguiano & Beckett, 2023). Weitere interessante Informationen zu diesem Teilbereich finden Sie auf der entsprechenden Webseite der WGA.

Und auch in der Bau- und Immobilienbranche tut sich einiges. Als Beispiel sei der RIBA Artificial Intelligence Report des Royal Institute of British Architects (RIBA) genannt. Dieser Report beschreibt detailliert die Ergebnisse einer Befragung unter mehr als 500 RIBA-Mitgliedern über KI und ihre Bedeutung für die Praxis und den Beruf. Der Bericht zeigt, dass 41 % der befragten Architektinnen und Architekten in Großbritannien bereits KI-Software nutzen, um ihre Entwürfe zu verbessern und effizienter zu gestalten.

Und gerade dort sehe ich auch eine Gefahr. Denn die Tendenz, dass KI-gestützte Entwurfsprogramme wiederholt Muster favorisieren, könnte zu einer Landschaft führen, in welcher neue Bauwerke einen Mangel an Originalität aufweisen. KI-Systeme, welche in der Regel auf Standards und Optimierung ausgelegt sind, können dazu führen, dass einzigartige lokale Baustile, kulturelle Identitäten und traditionelle Bauweisen in den Hintergrund gedrängt werden. Und das kann zu einer Untergrabung der kulturellen und architektonischen Vielfalt führen.

Beispiel: KI in der städtischen Entwicklungsplanung

Ein Beispiel für diese Problematik bietet die Umsetzung der städtischen Entwicklungsplanung durch Künstliche Intelligenz. Hier können KI-Algorithmen eingesetzt werden, um Flächennutzungspläne zu optimieren und die Bebauungsdichte zu maximieren. In einem Fall könnte ein KI-System vorschlagen, ein historisches Viertel mit niedriger Bebauungsdichte durch ein Hochhauskomplex zu ersetzen, um die Wohnraumkapazität zu erhöhen. Während dies aus einer rein ökonomischen und raumplanerischen Perspektive sinnvoll erscheinen mag (und auch mehr dringend benötigten Wohnraum schaffen würde), könnte es die Zerstörung architektonisch einzigartiger Strukturen bedeuten, die Teil des kulturellen Erbes der Stadt sind.

Herausforderungen

  1. Verlust kultureller Identität: Architektur ist ein Ausdruck kultureller Identität und Geschichte. Wenn KI-Systeme Entscheidungen treffen, die ausschließlich auf quantitativen Daten und Wahrscheinlichkeiten basieren, kann das zur Vernachlässigung kultureller Werte führen, was letztlich den Verlust von Bauwerken zur Folge haben kann, die eine Gemeinschaft prägen.
  2. Homogenisierung des Städtebaus: Die globale Verbreitung ähnlicher KI-gesteuerter Entwurfs- und Planungsmethoden kann zu einer visuellen und funktionalen Homogenisierung führen, bei der Städte weltweit immer ähnlicher aussehen und spezifische lokale Bedürfnisse und Traditionen ignoriert werden.
  3. Mangelnde Berücksichtigung lokaler Gegebenheiten: KI-Modelle, die nicht speziell auf regionale Unterschiede in Klima, Topographie oder sozioökonomischen Bedingungen angepasst sind, können Lösungen vorschlagen, die in bestimmten Umgebungen nicht praktikabel oder nachhaltig sind.

Gegenmaßnahmen

Um die negativen Auswirkungen der Künstlichen Intelligenz auf die kulturelle und architektonische Vielfalt zu minimieren, könnten folgende Maßnahmen ergriffen werden:

  1. Einbeziehung lokaler Experten: Bei der Entwicklung und Implementierung von KI-Systemen sollte das Wissen und die Erfahrung lokaler Architektinnen und Architekten wie auch weiterer Kulturschaffender einbezogen werden. Durch sie könnte sichergestellt werden, dass die KI-Lösungen lokale Besonderheiten und kulturelle Werte berücksichtigen und respektieren.
  2. Diversifizierung der Datensätze: Die Verwendung diversifizierter und kulturell sensibler Datensätze in KI-Modellen kann helfen, die kulturelle Relevanz der generierten Lösungen zu verbessern. Daten sollten aus einer Vielzahl von Quellen stammen und die kulturelle Vielfalt der Gesellschaft für welche die gebaute Umwelt erschaffen wird widerspiegeln.
  3. Regulatorische Rahmenbedingungen: Gesetzliche Vorgaben können dazu beitragen, dass bei der Stadtplanung und Architektur kulturelle, historische und soziale Aspekte berücksichtigt werden müssen. Das könnte (zu recht) den Einsatz von KI-Systemen einschränken, welche diese Faktoren nicht adäquat berücksichtigen.
  4. Förderung von Innovation durch Diversität: Die Förderung von KI-Entwicklungen, welche innovative Ansätze zur Integration kultureller Vielfalt in den Entwurfsprozess verfolgen, kann helfen, die Homogenisierung zu vermeiden.
  5. Bewusstsein und Bildung: Die Schulung von allen an Planung, Bau und Betrieb beteiligten Fachkräften wie auch die allgemeine Bewusstseinsbildung in der Gesellschaft über die Bedeutung der Erhaltung kultureller und architektonischer Vielfalt kann zu einem verantwortungsbewussteren Einsatz von KI führen.

Durch bewusste Anstrengungen und regulative Maßnahmen können wir sicherstellen, dass unsere gebaute Umgebung sowohl innovativ als auch repräsentativ für die kulturelle Vielfalt und Identität bleibt, die unsere Städte und Gemeinschaften einzigartig macht.

Und nun?

Die Künstliche Intelligenz bietet eine Fülle von Möglichkeiten, unsere Arbeitsweisen und Lebensräume zu verbessern, steht aber auch vor erheblichen Herausforderungen und ethischen Fragestellungen. Diese dunklen Seiten der Künstlichen Intelligenz unterstreichen die Notwendigkeit, technologische Entwicklungen mit ethischen Überlegungen und sozialer Verantwortung zu verbinden. Es bedarf eines kritischen Diskurses und konkreter Maßnahmen, um sicherzustellen, dass die Entwicklung und Anwendung von KI das Wohl aller berücksichtigt und unbeabsichtigte Schäden minimiert.

Ein besonders kritischer Aspekt dabei ist meiner Meinung nach die Ausbeutung von Klickarbeitern, deren mühsame und schlecht bezahlte Arbeit oft im Schatten der Technologiefortschritte verborgen bleibt. Gerade in der Bau- und Immobilienwirtschaft zeigt sich, wie wichtig ihre Rolle ist, beispielsweise bei der Analyse von Satellitenbildern oder der Zuordnung von umfangreichen Datensätzen. Diese Arbeit wird oft unter prekären Bedingungen verrichtet, die dringend adressiert und verbessert werden müssen.

Uns steht es nun offen, diesen Herausforderungen entgegenzutreten. Durch faire Arbeitsbedingungen, angemessene Bezahlung und Anerkennung der Klickarbeiter können wir nicht nur die ethischen Grundlagen unserer technologischen Fortschritte stärken, sondern auch sicherstellen, dass die Entwicklung von KI nachhaltig und gerecht erfolgt. Es ist an der Zeit, dass Unternehmen und Gesellschaften gemeinsam Verantwortung übernehmen und für Transparenz, Gerechtigkeit und Respekt im Umgang mit allen Beteiligten sorgen. Denn auch das gehört zum Nachhaltigkeitsgedanken! Nur so kann die KI ihr wahres Potenzial entfalten, ohne dabei diejenigen zu übersehen, die im Hintergrund die Räder am Laufen halten.

Quellenverzeichnis:

Anguiano, D & Beckett, L. (2023). How Hollywood writers triumphed over AI – and why it matters, The Guardian, online

Barton, M.-C., Pöppelbuß, J. (2022). Prinzipien für die ethische Nutzung künstlicher Intelligenz. HMD 59, 468–481, online

Bodrožić-Brnić, K; Fitzek, H. (2023). Kreativität & Künstliche Intelligenz . Der Mensch als treibende Kraft der KI, Hrg. BSP Business and Law School – Hochschule für Management und Recht, Projekt Mittelstand-Digital Zentrum Zukunftskultur, online

BSI (2024). Deepfakes – Gefahren und Gegenmaßnahmen, Bundesamt für Sicherheit in der Informationstechnik, online

BMVU (2024). Künstliche Intelligenz für Umwelt und Klima, online

Deutscher Bundestag (2024). Ökologische Auswirkungen Künstlicher Intelligenz begrenzen. Parlamentarischer Beirat für nachhaltige Entwicklung — Ausschuss — hib 156/2024, online

Deutscher Ethikrat (2023). Mensch und Maschine – Herausforderungen durch Künstliche Intelligenz, Stellungnahme, online

EU Parlament (2023). Künstliche Intelligenz: Chancen und Risiken, Veröffentlicht: 29.09.2020, letzte Aktualisierung: 20.06.2023 um 12:15 Uhr, online

Forschung & Lehre (2024). Entlastet die KI das Gehirn zu sehr, baut es ab, online

Karl, C. K.; Spengler, A.; Bruckmann, T. und Ibbs, C. W. (2018). Influence of automated building construction systems on vocational education and training In: The Future of Building Things: 35th International Symposium on Automation and Robotics in Construction and International AEC/FM Hackathon / International Symposium on Automation and Robotics in Construction ; ISARC 2018; 20.-25.07.2018, Berlin / Teizer, Jochen; König, Markus; Hartmann, Timo (Hrsg.) 2018, S. 236 – 243, online

Kaufmann, S. (2024). Wie sozial ist Künstliche Intelligenz?, Frankfurter Rundschau, 19.02.2024, online

Lopez, P. (2021). Diskriminierung durch Data Bias Künstliche Intelligenz kann soziale Ungleichheiten verstärken, WZB Mitteilungen, Heft 171, 03/202, online

NDR (2023). EuGH-Urteil: Schufa-Score nicht maßgeblich für Kreditwürdigkeit, online

Peterson, A. J. (2024). AI and the Problem of Knowledge Collapse, arxiv, Cornell University, online

Schweitzer, E. (2022). KI und Stadtentwicklung – Einsatzfelder künstlicher Intelligenz in der Stadtentwicklung, Fachbeitrag, Bundesinstitut für Bau-, Stadt- und Raumforschung (BBSR) Referat RS 5 „Digitale Stadt, Risikovorsorge und Verkehr“, 06.04.2022, online

Bengio, Y.; Hinton, G.; Yao, A.; Song, D.; Abbeel, P.; Darrell, T.; Harari, Y. N.; Zhang, Y.-Q.; Xue, L.; Shalev-Shwartz, S.; Hadfield, G.; Clune, J.; Maharaj, T.; Hutter, F.; Baydin, A. G.; McIlraith, S.; Gao, Q.; Acharya, A.; Krueger, D.; Dragan, A.; Torr, P.; Russell, S.; Kahneman, D.; Brauner, J. and Mindermann, S. (2024). Managing extreme AI risks amid rapid progress – Preparation requires technical research and development, as well as adaptive, proactive governance In Science, Vol. 384, Nr. 6698, online

Spengler, A. J., Karl, C. K. (2018). Datensicherheit und BIM In: Build-Ing. (2018) Nr. 2, S. 52 – 55, online

Spiegel (2023). Training für künstliche Intelligenz – So sieht die Arbeit von Clickworkern aus, online

Tagesschau (2024). Weit, weit weg vom Silicon Valley, online

Schlagwörter: KI-Ethik, Klickarbeit, FairTech, digitale Gerechtigkeit, ZukunftDerArbeit, ZukunftBau, Datenschutz, nachhaltige Stadtentwicklung, algorithmische Vorurteile

Diesen Beitrag zitieren: Karl, C. [Christian K. Karl]. (2024). Künstliche Intelligenz und ihre dunklen Seiten [Blog-Beitrag]. 18.06.2024. BauVolution, ISSN 2942-9145. online verfügbar

×