Software wird jetzt von Künstlicher Intelligenz entwickelt; ist es aber vertrauenswürdig?

In der nahen Zukunft wird erwartet, dass viele Softwareanwendungen vollständig von KI-Agenten entwickelt werden. „Agentische“ Systeme bestehen aus Gemeinschaften mehrerer KI-Agenten, die auf die Lösung spezifischer Aufgaben spezialisiert sind und zusammenarbeiten. Mit einem solchen System können Sie eine Softwareanwendung erstellen, indem Sie einfach in klar verständlichem Englisch angeben, was die Anwendung tun soll.
image_print

Software wird zunehmend von Künstlicher Intelligenz entwickelt – aber ist es vertrauenswürdig?

Software ist in allen Bereichen unseres Lebens präsent. Zum Beispiel enthalten die Computersysteme in Ihrem Auto Millionen von Codezeilen. Da die Digitalisierung unserer Gesellschaft rasant voranschreitet, wird auch die Nachfrage nach mehr und besserer Software in der Zukunft weiter steigen.

Doch es gibt ein Problem: Es gibt nicht genug menschliche Programmierer, um all diese Software zu entwickeln. Das bedeutet, dass immer mehr Software, die wir im Alltag nutzen, mit Unterstützung von Künstlicher Intelligenz (KI) erstellt wird.

Softwareentwickler sind bereits mit Tools wie GitHub Copilot vertraut. Dieses Tool, das eine Art ChatGPT-Funktion für Programmierer darstellt, funktioniert wie ein intelligenter Autocomplete-Mechanismus, der die Produktivität von menschlichen Programmierern steigern soll.

Aber jetzt erleben wir eine viel tiefere Transformation. Künstliche „Agenten“ werden sich darauf vorbereiten, viele verschiedene Entwicklungsaufgaben im Auftrag von menschlichen Programmierern zu übernehmen. Agenten sind Softwareprogramme, die KI nutzen, um bestimmte Aufgaben zu erledigen und bestimmte Ziele für menschliche Benutzer zu erreichen. KI-Agenten haben ein gewisses Maß an Autonomie und können lernen und Entscheidungen treffen, befinden sich jedoch vorerst noch unter menschlicher Aufsicht.

In naher Zukunft wird erwartet, dass viele Softwareanwendungen vollständig von KI-Agenten entwickelt werden. „Agentische“ Systeme bestehen aus Gemeinschaften mehrerer KI-Agenten, die auf die Lösung spezifischer Aufgaben spezialisiert sind und zusammenarbeiten. Mit einem solchen System können Sie eine Softwareanwendung erstellen, indem Sie einfach in klarem Englisch angeben, was die Anwendung tun soll.

Dies könnte positive Auswirkungen haben. Agentische Systeme könnten es auch Nutzern ohne Kenntnisse in der Softwareentwicklung ermöglichen, eigene Software zu erstellen oder bestehende Software an ihre Bedürfnisse anzupassen. Allerdings sind auch negative Folgen möglich. Agenten sind nicht fehlerfrei und könnten leicht unsicheren, ineffizienten oder in Bezug auf bestimmte Gemeinschaften voreingenommenen Code generieren.

Ein Beispiel: Ein KI-Agent, der Software zur Personalbeschaffung entwickelt, könnte aufgrund von Vorurteilen in den Daten, mit denen er trainiert wurde, männliche Bewerber bevorzugen. Daher sollten wir Mechanismen entwickeln, die solche Risiken minimieren, wie sie auch in der KI-Verordnung der Europäischen Union (AI Act) gefordert werden.

Forscher gehen dieses Problem an, indem sie die grundlegenden großen Sprachmodelle (LLMs – Large Language Models) testen, die jedem KI-Agenten zugrunde liegen. LLMs sind KI-Systeme, die mit großen Datenmengen trainiert wurden. Agenten vertrauen auf diese LLMs, um die besten Antworten auf Benutzeranfragen zu ermitteln und zu generieren.

Indem alle großen Sprachmodelle (LLMs) nach Kriterien wie Genauigkeit, Sicherheitslücken und Vorurteilen bewertet werden, können Softwareentwickler das am besten geeignete LLM für einen KI-Agenten auswählen. Diese Wahl hängt davon ab, welche Aufgaben der Agent erfüllen soll.

Dieser Prozess hilft, den Agenten zu einem ethischen Verhalten zu bewegen. Aber wie können wir sicherstellen, dass sie unsere Anweisungen verstehen und ausführen? Unsere Lösung basiert darauf, die Pläne (Designs) der zu entwickelnden Software zugrunde zu legen.

Im Allgemeinen ist es auch für Laien möglich, die Pläne eines Hauses zu verstehen. Ähnlich ist es, wenn wir die Pläne einer Software so verständlich wie möglich machen, auch Nutzer ohne fortgeschrittene Softwareentwicklungskenntnisse können das Konzept verstehen und wissen, wie sie Änderungen vornehmen können.

Ausgehend von der ersten Definition des Nutzers, stellt der KI-Agent(en) einen detaillierten Plan für eine mögliche Lösung vor und erklärt diesen in einfacher Sprache. Der Nutzer kann den Plan genehmigen oder Verbesserungen anfordern. Nach der endgültigen Genehmigung wird die Softwareanwendung automatisch aus diesem Plan erstellt.

Diese Softwareentwicklungsweise wird als Low-Code oder No-Code-Entwicklung bezeichnet. Denn ein Großteil des Codes (in einigen Anwendungen sogar der gesamte Code) wird nicht von einem Menschen von Grund auf neu geschrieben, sondern wird automatisch vom Computer anhand der Pläne generiert. Unsere Open-Source-Plattform BESSER hilft Ihnen, Anwendungen auf diese Weise zu erstellen.

Der Science-Fiction-Autor Arthur C. Clarke sagte einst: „Jede ausreichend fortschrittliche Technologie ist von Magie nicht zu unterscheiden.“ Sehr bald wird diese Magie ein Teil unseres Alltags sein. Aber wir müssen vorsichtig sein; es ist wichtig, dass diese Magie nicht in schädliche Zauberei umschlägt, die mehr Schaden als Nutzen anrichtet.

Quelle: https://theconversation.com/software-is-increasingly-being-built-by-ai-so-its-vital-to-know-if-it-can-be-trusted-251728