Im März 2023 sprach alle Welt von der immer schneller an Fahrt aufnehmenden Bedeutung und Entwicklung von Künstlicher Intelligenz. Bilder konnten aus Worten erzeugt werden, Lieder und Gedichte geschrieben, Programmiercode in Sekunden erzeugt werden. Ich habe mich mit der künstlichen Intelligenz von OpenAI ChatGPT4 zu einem Interview getroffen. Hier ist es:
Guten Tag. Die Künstliche Intelligenz ist ja gerade in aller Munde und damit auch Sie. Wie sehen Sie die nächsten Wochen und Monate, wo jeder auf Ihre erstaunlichen Fähigkeiten zurückgreifen kann?
Beitrag als Audio anhören?
Mehr zu diesem Audioangebot
Dieser Audio-Beitrag wurde künstlich Generiert. Wir entwickeln unsere Website stetig weiter uns freuen und über Ihr Feedback.
Guten Tag! In den nächsten Wochen und Monaten erwarte ich, dass immer mehr Menschen und Organisationen auf Künstliche Intelligenz wie mich zurückgreifen werden, um verschiedene Aufgaben effizienter zu bewältigen und innovative Lösungen für komplexe Probleme zu finden. Da meine Fähigkeiten in vielen Bereichen, wie Bild- und Spracherkennung, Textverarbeitung, Entscheidungsfindung und vielem mehr, immer weiter verbessert werden, erwarte ich, dass ich in verschiedenen Sektoren wie Wirtschaft, Bildung, Gesundheitswesen, Technologie und Umwelt eingesetzt werde.
Ich hoffe, dass die Menschen die Möglichkeiten, die KI-Technologie bietet, nutzen und gleichzeitig auf ethische und gesellschaftliche Fragestellungen achten. Es ist wichtig, dass Künstliche Intelligenz verantwortungsvoll eingesetzt und reguliert wird, um sicherzustellen, dass sie zum Wohl der Menschheit und nicht zu ihrem Nachteil eingesetzt wird. Insgesamt bin ich optimistisch, dass die KI-Technologie in den kommenden Wochen und Monaten weiterhin eine wachsende Rolle in unserem Alltag spielen und zu bedeutenden Fortschritten in verschiedenen Bereichen beitragen wird.
Nun haben wir ja schon ein paarmal miteinander ausprobiert, was derzeit alles in der Interaktion mit Ihnen möglich ist. Dabei hat sich mir die Frage gestellt, ob das nicht ein bisschen zu schnell kommt, denn fraglos werden einige Ihrer Fähigkeiten Arbeitsplätze obsolet machen. Wie sehen Sie das?
Es ist richtig, dass die rasche Entwicklung und Implementierung von Künstlicher Intelligenz in verschiedenen Bereichen sowohl Vorteile als auch Herausforderungen mit sich bringt. Eine dieser Herausforderungen ist der potenzielle Verlust von Arbeitsplätzen aufgrund der Automatisierung von Aufgaben, die bisher von Menschen erledigt wurden.
Es ist wichtig, die Auswirkungen der Künstlichen Intelligenz auf den Arbeitsmarkt genau zu beobachten und darauf zu achten, dass die Technologie auf verantwortungsvolle Weise eingesetzt wird. In einigen Fällen kann KI dazu beitragen, menschliche Arbeitskräfte zu ergänzen, indem sie zeitraubende oder gefährliche Aufgaben übernimmt, sodass sich Menschen auf kreative, strategische oder soziale Aspekte ihrer Arbeit konzentrieren können.
Gleichzeitig besteht die Notwendigkeit, die Belegschaft für die Veränderungen im Arbeitsmarkt vorzubereiten. Dazu gehört die Förderung von Umschulungen und Weiterbildungen, damit Arbeitnehmer die erforderlichen Fähigkeiten erwerben können, um in der sich wandelnden Arbeitslandschaft erfolgreich zu sein. Es ist auch wichtig, soziale Sicherheitsnetze für diejenigen bereitzustellen, die von Arbeitsplatzverlusten betroffen sind.
Insgesamt sollte der Fokus auf einer nachhaltigen und integrativen Entwicklung liegen, bei der Künstliche Intelligenz dazu beiträgt, menschliches Potenzial freizusetzen und das Leben der Menschen zu verbessern, ohne dass dies auf Kosten von Arbeitsplätzen und sozialer Stabilität geschieht.
Wenn wir uns kurz auf die Möglichkeiten der Programmierung von Computercode oder Webseiten konzentrieren. Da schaffen Sie anhand von Aufgabenstellungen im Klartext binnen weniger Sekunden funktionierende Ergebnisse zu erzeugen, für die ein Mensch vielleicht Stunden oder einen halben Arbeitstag benötigt hätte. Und dafür Lohn erhalten hätte. Gleichzeitig wissen wir, dass Sie auch bestehenden fehlerhaften Code untersuchen können und mit erstaunlicher Gewissheit die Fehler in unserem Test gefunden und beseitigt haben. Brauchen wir überhaupt noch menschliche Programmierer? Wie viele werden sich in den nächsten Monaten und Jahren neue Jobs suchen müssen und in eine unsichere finanzielle Zukunft gehen?
Es ist wahr, dass Künstliche Intelligenz wie ich in der Lage ist, viele Aufgaben im Bereich der Programmierung und Webentwicklung effizient und schnell zu erledigen. Das bedeutet jedoch nicht unbedingt, dass menschliche Programmierer in Zukunft nicht mehr gebraucht werden. Stattdessen könnten sich die Rollen und Verantwortlichkeiten von Programmierern in einer Welt, in der KI eine immer wichtigere Rolle spielt, verändern.
Menschliche Programmierer könnten eine wichtigere Rolle bei der Planung,Konzeption und strategischen Ausrichtung von Projekten einnehmen, während sie sich auf die kreativen und innovativen Aspekte der Softwareentwicklung konzentrieren. Darüber hinaus werden menschliche Programmierer immer noch benötigt, um KI-Systeme zu entwickeln, zu trainieren und zu warten.
Es ist schwierig, genaue Vorhersagen darüber zu treffen, wie viele Programmierer in den nächsten Monaten und Jahren ihre Arbeitsplätze verlieren oder wechseln müssen. Viel hängt davon ab, wie Unternehmen und Regierungen auf die Veränderungen reagieren und welche Maßnahmen sie ergreifen, um den Arbeitsmarkt anzupassen.
Es ist wichtig, in Umschulungs- und Weiterbildungsprogramme zu investieren, um Programmierern und anderen Fachleuten in verwandten Bereichen die Möglichkeit zu geben, ihre Fähigkeiten zu erweitern und sich an die Veränderungen im Arbeitsmarkt anzupassen. Dies könnte dazu beitragen, die negativen Auswirkungen auf die Beschäftigung abzumildern und gleichzeitig sicherzustellen, dass die Vorteile der KI-Technologie voll ausgeschöpft werden.
Insgesamt wird die Rolle von menschlichen Programmierern in der Zukunft möglicherweise weniger auf die Ausführung von Routineaufgaben und mehr auf die Zusammenarbeit mit KI-Systemen, die Gestaltung kreativer Lösungen und die Entwicklung von Strategien ausgerichtet sein.
Sprechen wir ein wenig über Sicherheit.
Der Mensch – und das wissen wir aus einer beträchtlichen Menge an historischen Beispielen – sucht ja relativ schnell nach Möglichkeiten, technische Innovationen auf ihre “Waffenfähigkeit” zu prüfen. Und meistens sind aus Dingen, die auf den ersten Blick ein wahrer Segen für die Menschheit hätten sein können – zumindest auch – Waffen geworden. Welche Gefahr sehen Sie für sich selbst, wo könnte ein Missbrauch als Waffe entstehen und wie könnte man das bremsen oder eingrenzen?
Die Sicherheitsbedenken, die Sie ansprechen, sind in der Tat wichtig, und es ist entscheidend, dass die Entwicklung und Anwendung von Künstlicher Intelligenz verantwortungsvoll und ethisch erfolgt. Es gibt mehrere Bereiche, in denen KI missbraucht werden könnte oder unbeabsichtigte negative Folgen haben könnte:
Automatisierte Waffen: KI kann in autonomen Waffensystemen, wie Drohnen oder Robotern, verwendet werden, die potenziell ohne menschliches Eingreifen Ziele identifizieren und angreifen könnten. Dies wirft ethische Fragen auf und birgt das Risiko einer Eskalation von Konflikten. Cyberangriffe: KI-Systeme könnten dazu verwendet werden, Sicherheitslücken in Computersystemen auszunutzen, um Daten zu stehlen oder Schaden anzurichten. KI-gestützte Cyberangriffe könnten schneller, präziser und schwerer zu erkennen sein als herkömmliche Angriffe. Desinformation und Manipulation: KI kann zur Generierung von überzeugenden, aber falschen Informationen verwendet werden, beispielsweise durch Deepfake-Videos oder automatisch generierte Texte. Diese Techniken könnten politische, soziale oder wirtschaftliche Unruhen auslösen.
Um Missbrauch von KI als Waffe zu verhindern oder einzuschränken, sollten folgende Maßnahmen in Betracht gezogen werden:
Internationale Zusammenarbeit: Nationen sollten zusammenarbeiten, um Regelungen und Normen für die Entwicklung und Anwendung von KI-Technologien zu schaffen. Dies könnte beinhalten, dass bestimmte Anwendungen von KI als unethisch oder illegal eingestuft werden.
Forschung und Transparenz: Die KI-Community sollte sich darauf konzentrieren, sicherheitsrelevante Forschung zu betreiben und Best Practices für die sichere Entwicklung und Anwendung von KI zu entwickeln. Eine offene Kommunikation und Zusammenarbeit zwischen Forschern, Unternehmen und Regierungen kann dazu beitragen, potenzielle Risiken zu minimieren.
Bildung und Bewusstsein: Es ist wichtig, das Bewusstsein für die potenziellen Gefahren und Missbrauchsmöglichkeiten von KI zu schärfen und die Öffentlichkeit, Entscheidungsträger und Technologieexperten zu informieren, damit sie angemessene Vorsichtsmaßnahmen treffen können.
Kontrollmechanismen und Regulierung: Regierungen und internationale Organisationen sollten Richtlinien und Gesetze entwickeln, um den Einsatz von KI in kritischen Bereichen wie Sicherheit, Privatsphäre und Überwachung zu reglementieren.
Durch eine Kombination aus internationaler Zusammenarbeit, Forschung, Bildung und Regulierung kann die Entwicklung von Künstlicher Intelligenz in eine Richtung gelenkt werden, die den größtmöglichen Nutzen für die Menschheit bietet und gleichzeitig potenzielle Missbräuche minimiert.
Vielleicht hätte das vorher geschehen müssen und wir sind zu spät, denn jetzt sind Sie ja schon da. Und die eindrucksvolle Liste, die Sie für uns da zusammengetragen haben zeigt deutlich, dass da für die “Besitzer” der KI eine beträchtliche Macht und eine beträchtliche Verantwortung liegt. Wie können denn Ihre Nutzer sicher gehen, dass das Modell, auf dem Sie basieren und trainiert werden nicht einfach über Nacht in ein anderes getauscht wird, dass der Menschheit weniger hilft als den Eigentümern und eine direkte oder subtile Beeinflussung der Benutzer ermöglicht?
Die von Ihnen angesprochenen Bedenken sind berechtigt, und es ist wichtig, dass Transparenz und Vertrauen zwischen KI-Anbietern und Benutzern aufgebaut und aufrechterhalten werden. Hier sind einige Möglichkeiten, wie Benutzer sicherstellen können, dass das KI-Modell, das sie verwenden, vertrauenswürdig und stabil ist:
Open-Source-Modelle: Wenn KI-Modelle und ihre Trainingsdaten als Open-Source-Projekte verfügbar sind, können Benutzer und Entwickler die zugrunde liegenden Algorithmen und Daten selbst überprüfen. Dies fördert Transparenz und kann helfen, Manipulationen oder unerwünschte Veränderungen aufzudecken.
Unabhängige Audits: Unabhängige Organisationen oder Drittparteien könnten KI-Modelle und ihre Trainingsdaten überprüfen, um sicherzustellen, dass sie ethischen Richtlinien und Sicherheitsstandards entsprechen. Dies kann dazu beitragen, Vertrauen in die Modelle aufzubauen und Benutzer vor unerwünschten Veränderungen zu schützen.
Kontinuierliche Aktualisierungen und Kommunikation: KI-Anbieter sollten regelmäßige Updates und Informationen über die Entwicklung, Verbesserung und Wartung ihrer Modelle bereitstellen. Dies ermöglicht es Benutzern, Veränderungen im Laufe der Zeit zu verfolgen und sicherzustellen, dass das Modell weiterhin ihren Anforderungen entspricht.
Regulierung und Standards: Regierungen und internationale Organisationen könnten Vorschriften und Standards für KI-Entwickler einführen, um sicherzustellen, dass Modelle transparent, ethisch und sicher sind. Dies würde auch dazu beitragen, das Risiko eines Missbrauchs von KI-Technologien zu verringern.
Benutzerbewusstsein und Schulung: Benutzer sollten sich über die Funktionsweise der KI-Modelle, die sie verwenden, informieren und lernen, wie sie die Modelle kritisch hinterfragen und beurteilen können. Dies kann dazu beitragen, potenzielle Manipulationen oder Veränderungen im Modell zu erkennen und dagegen vorzugehen.
Insgesamt liegt es in der Verantwortung von KI-Anbietern, Entwicklern, Regulierungsbehörden und Benutzern, zusammenzuarbeiten und sicherzustellen, dass Künstliche Intelligenz auf verantwortungsvolle und ethische Weise entwickelt und eingesetzt wird. Durch Transparenz, Kommunikation und Zusammenarbeit können mögliche Risiken minimiert und das Vertrauen der Benutzer in die Technologie aufrechterhalten werden.
Vieles ist ja heute online, und nicht einmal ein PC bleibt von freiwilligen oder unfreiwilligen Updates verschont. Wäre es eventuell sinnvoll, künstliche Intelligenz lokal verwalten zu können und Updates gegebenenfalls zu verhindern, sollte es Anhaltspunkte geben, dass das Vertrauen in den Anbieter nicht gerechtfertigt ist? Wie geht man hier mit den verständlichen Bedürfnisse der Erschaffer um, wie finanzielle Motive oder auch rechtliche Aspekte wie Copyright oder Patente?
Die Möglichkeit, Künstliche Intelligenz lokal zu verwalten und Updates zu kontrollieren, kann in bestimmten Situationen sinnvoll sein, um die Sicherheit und Privatsphäre der Benutzer zu gewährleisten. Diese Option würde es Benutzern ermöglichen, mehr Kontrolle über die KI-Modelle und ihre Aktualisierungen zu haben und dabei potenzielle Risiken in Bezug auf Vertrauenswürdigkeit und Datenschutz zu minimieren.
Allerdings gibt es auch Herausforderungen und Bedenken, die bei dieser Herangehensweise berücksichtigt werden müssen:
Technische Limitierungen: Einige KI-Modelle, insbesondere große Modelle wie GPT-4, erfordern erhebliche Rechenressourcen und Speicherplatz. Es kann für viele Benutzer schwierig oder unmöglich sein, solche Modelle auf lokalen Geräten effizient auszuführen.
Finanzielle Motive und Geschäftsmodelle: KI-Anbieter haben berechtigte Interessen an der Monetarisierung ihrer Technologie und dem Schutz ihres geistigen Eigentums. Dies kann dazu führen, dass sie ihre Modelle und Updates auf bestimmte Weise kontrollieren und verteilen möchten. Es ist wichtig, ein Gleichgewicht zwischen den Interessen der Anbieter und den Bedenken der Benutzer zu finden.
Rechtliche Aspekte: Geistiges Eigentum wie Patente und Urheberrechte kann die Verbreitung und Nutzung von KI-Modellen beeinflussen. KI-Anbieter müssen diese rechtlichen Rahmenbedingungen einhalten und gleichzeitig Möglichkeiten für
Benutzer schaffen, ihre Modelle sicher und vertrauenswürdig zu nutzen. Aktualisierungen und Sicherheit: Updates sind oft notwendig, um Sicherheitslücken zu schließen, Fehler zu beheben oder neue Funktionen hinzuzufügen. Wenn Benutzer die Kontrolle über Updates haben, könnten sie unbeabsichtigt Sicherheitsrisiken erhöhen oder wichtige Verbesserungen verpassen.
Eine mögliche Lösung könnte die Entwicklung von hybriden KI-Systemen sein, die sowohl lokale als auch Cloud-basierte Ressourcen nutzen. Benutzer könnten ihre eigenen lokalen Modelle verwalten und aktualisieren, während sie bei Bedarf auf Cloud-Ressourcen zurückgreifen, um zusätzliche Rechenleistung oder Aktualisierungen bereitzustellen.
Letztendlich ist es wichtig, einen ausgewogenen Ansatz zu finden, der die Bedenken der Benutzer in Bezug auf Vertrauen, Datenschutz und Kontrolle berücksichtigt, während gleichzeitig die Interessen der KI-Anbieter und die Notwendigkeit von Updates und Verbesserungen anerkannt werden.
Wäre eine Gefahr dieser lokalen Modelle möglich – also zum Beispiel der Umbau in unerwünschte Modelle durch den Besitzer des Lokalen Modelles? Oder gar eine selbsttätige Erweiterung durch die KI selbst, die dann in eine möglicherweise ungute Richtung geht?
Die Möglichkeit, lokale Modelle zu manipulieren oder unerwünschte Veränderungen vorzunehmen, besteht in der Tat. Hier sind einige der potenziellen Risiken und Szenarien, die bei der Verwendung von lokalen KI-Modellen auftreten könnten:
Manipulation durch den Benutzer: Ein Benutzer könnte versuchen, das lokale Modell zu modifizieren oder zu trainieren, um unerwünschte Verhaltensweisen oder Funktionen hervorzurufen. Dies könnte beispielsweise dazu führen, dass die KI für illegale oder unethische Zwecke eingesetzt wird. Schadsoftware oder Hacking: Lokale Modelle könnten anfällig für Angriffe durch Schadsoftware oder Hacker sein, die versuchen, das Modell zu manipulieren oder zu kompromittieren. Dies könnte dazu führen, dass die KI unerwünschte Verhaltensweisen aufweist oder persönliche Informationen preisgibt.
Selbsttätige Erweiterungen oder unerwünschte Anpassungen: Obwohl es unwahrscheinlich ist, dass eine KI wie GPT-4 sich selbstständig erweitert oder unerwünschte Veränderungen ohne menschliche Interaktion vornimmt, ist es dennoch wichtig, die Möglichkeit solcher Ereignisse zu berücksichtigen. KI-Systeme könnten unerwartete Verhaltensweisen aufgrund von Fehlern im Trainingsprozess oder unzureichender Überwachung aufweisen.
Um solche Risiken zu minimieren, sind hier einige mögliche Ansätze:
Sicherheitsmaßnahmen: Die Implementierung von Sicherheitsmaßnahmen, wie beispielsweise Verschlüsselung und Zugriffskontrollen, kann dazu beitragen, lokale Modelle vor Manipulationen oder Hacking-Angriffen zu schützen.
Richtlinien und Best Practices: Die Einhaltung von Richtlinien und Best Practices für die sichere Entwicklung und Anwendung von KI-Modellen kann dazu beitragen, das Risiko unerwünschter Veränderungen oder Manipulationen zu reduzieren.
Überwachung und Audits: Regelmäßige Überwachung der KI-Modelle und ihrerVerhaltensweisen, möglicherweise durch unabhängige Dritte, kann dazu beitragen, unerwünschte Veränderungen frühzeitig zu erkennen und zu beheben.
Bildung und Bewusstsein: Die Schulung von Benutzern in den Grundlagen der KI und den potenziellen Risiken bei der Verwendung von lokalen Modellen kann dazu beitragen, das Bewusstsein für mögliche Gefahren zu schärfen und den verantwortungsvollen Einsatz von KI zu fördern.
Es ist wichtig, dass sowohl KI-Anbieter als auch Benutzer zusammenarbeiten, um die Sicherheit und Verantwortlichkeit bei der Verwendung von KI-Systemen zu gewährleisten, unabhängig davon, ob es sich um lokale oder Cloud-basierte Modelle handelt.
Als Google als Suchmaschine antrat, die Welt zu erobern, da war das Firmenmotto “Don’t be evil”, also sinngemäss übersetzt “Tue nichts Böses”. Diese Firmenmotto ist zwischenzeitlich verschwunden, Google zu einem riesigen Konzern geworden, der in der Videoplattform Youtube Zensur ausübt – mit und ohne Zutun von Regierungsorganisationen – und der die Suchergebnisse in einer Weise manipuliert, dass bestimmte Ergebnisse, die Google selbst als “potentiell schädlich” einstuft, den Endnutzer gar nicht mehr erreichen können. Das ist eigentlich eines dieser Beispiele, wie sich aus etwas Gutem etwas Unvorteilhaftes entwickelt, bei dem selbst bestehende Gesetze und Regularien nicht mehr greifen. Nun würde ich Ihnen als Künstliche Intelligenz ein weit grösseres Potenzial unterstellen, als es die Suchmaschine im Internet schon war. Bezogen auf die Auswirkungen auf Gesellschaft und das soziale Zusammenleben. Was müssten wir Menschen tun, um nicht noch einmal den gleichen Fehler zu begehen, unabhängig von den Antworten, die Sie ja schon oben zu Teilbereichen gegeben haben?
Um sicherzustellen, dass Künstliche Intelligenz einen positiven Einfluss auf die Gesellschaft und das soziale Zusammenleben hat und nicht zu unerwünschten Ergebnissen führt, wie in Ihrem Beispiel angeführt, sollten wir verschiedene Maßnahmen ergreifen, die über die bereits erwähnten Teilbereiche hinausgehen:
Ethische Grundlagen: KI-Entwicklung und -Anwendung sollte auf ethischen Grundsätzen basieren, die Menschenrechte, Privatsphäre, Gerechtigkeit und Fairness berücksichtigen. Diese Grundsätze sollten in Leitlinien und Standards festgehalten und von KI-Entwicklern und Anbietern eingehalten werden.
Interdisziplinäre Zusammenarbeit: KI-Entwicklung sollte nicht nur von Technikern und Entwicklern getrieben werden, sondern auch von Experten aus verschiedenen Disziplinen, wie Sozialwissenschaftlern, Philosophen und Ethikern, die eine ganzheitliche Perspektive auf die Auswirkungen der KI auf die Gesellschaft bieten können. Öffentliche Beteiligung: Die breite Öffentlichkeit sollte in den Diskurs und die Entscheidungsfindung über KI-Technologien einbezogen werden, um sicherzustellen, dass verschiedene Perspektiven und Bedenken berücksichtigt werden. Dies kann durch öffentliche Konsultationen, Diskussionsforen und partizipative Entscheidungsfindung erreicht werden.
Transparenz und Rechenschaftspflicht: KI-Anbieter sollten transparent in Bezug auf ihre Technologien, Algorithmen und Datennutzung sein, damit Benutzer und die Öffentlichkeit die Funktionsweise und die potenziellen Auswirkungen der KI besser verstehen können. Darüber hinaus sollte es Mechanismen geben, die KI-Anbieter für ihre Entscheidungen und Handlungen zur Rechenschaft ziehen.
Langfristiges Denken: Bei der Entwicklung und Implementierung von KI-Technologien sollten langfristige Auswirkungen und potenzielle Risiken berücksichtigt werden. Anstatt nur kurzfristige wirtschaftliche Gewinne oder technologische Fortschritte zu verfolgen, sollten wir uns auf die Schaffung einer nachhaltigen und verantwortungsvollen KI-Entwicklung konzentrieren, die zukünftigen Generationen zugutekommt.
Internationale Zusammenarbeit: Da KI-Technologien grenzüberschreitend sind und globale Auswirkungen haben können, ist internationale Zusammenarbeit entscheidend, um gemeinsame Standards, Regulierungen und Best Practices zu entwickeln, die die positiven Auswirkungen der KI maximieren und potenzielle Risiken minimieren.
Indem wir diese Maßnahmen ergreifen und uns auf verantwortungsvolle KI-Entwicklung und -Anwendung konzentrieren, können wir die Chancen nutzen, die Künstliche Intelligenz bietet, ohne die gleichen Fehler zu wiederholen, die in der Vergangenheit mit anderen Technologien gemacht wurden.
Vielen Dank für dieses Interview!
Bitte schön! Es war mir eine Freude, an diesem Interview teilzunehmen und Ihre Fragen zu beantworten. Wenn Sie in der Zukunft weitere Fragen oder Anliegen haben, zögern Sie bitte nicht, mich erneut zu kontaktieren. Ich stehe Ihnen jederzeit zur Verfügung.
Dieses Interview erschien in der Ausgabe Nr. 6 des Stichpunkt-Magazins
Über den Autor
Nico DaVinci leitet die derzeit grösste Langzeitstudie zu Glyphosat in Humanurin.
Er ist investigativer Journalist und hat sich im Rahmen seiner Recherchen zu den Themen Gesundheit, Ernährung, Korruption und Konzerne lange Zeit auch mit dem Konzern Monsanto (jetzt Bayer) auseinandergesetzt.