Future of Humanity Institute (FHI)

image

Future of Humanity Institute (FHI)
(Zukunft der Menschheit Institut)ist ein interdisziplinäres Forschungszentrum konzentriert sich auf die Vorhersage und große Risiken für die menschliche Zivilisation zu verhindern. Es wurde im Jahr 2005 als Teil der Fakultät für Philosophie und der Oxford Martin School an der University of Oxford, England, Vereinigtes Königreich.  Der Direktor ist Philosoph Nick Bostrom, und seine Forschungspersonal und Mitarbeiter umfassen Futurist Anders Sandberg, Ingenieur gegründet K. Eric Drexler, Ökonom Robin Hanson, und geben, was wir können Gründer Toby Ord.

Das erklärte Ziel des Instituts ist die Entwicklung und Nutzung der wissenschaftlichen und philosophischen Methoden für die Argumentation über Themen von grundlegender Bedeutung für die Menschheit, wie die Wirkung der Zukunftstechnologie auf den menschlichen Zustand und die Möglichkeit, globale Katastrophen. Es beschäftigt sich eine Mischung aus akademischen und Öffentlichkeitsarbeit, suche fundierte Diskussion und öffentliches Engagement in der Regierung, Unternehmen, Universitäten zu fördern, und anderen Organisationen.

Nick Bostrom
hat das Institut im November 2005 im Rahmen der Oxford Martin Schule etabliert. Im Jahr 2014 veröffentlichte seine Forscher mehrere Bücher über AI Risiko, einschließlich Stuart Armstrong intelligenter als wir und Bostrom Superintelligenz: Pfade, Gefahren, Strategien.

image

Zeit – Online schrieb am 21. Januar 2015

Nick Bostrom warnt vor klugen Supermaschinen, die uns Menschen schon bald vernichten könnten.
Der Direktor des „Future of Humanity“-Instituts in Oxford, Nick Bostrom, fordert, dass Maschinen ein Ethik-Progamm installiert werden muss, um den Menschen zu schützen.
Während wir die Entwicklung der Künstlichen Intelligenz vorantreiben, wie es etwa Google und IBM derzeit tun, sind wir „wie Kinder, die mit Dynamit spielen“, schreibt Bostrom. Denn Experten gingen davon aus, dass wir mit 90-prozentiger Wahrscheinlichkeit bis zum Jahr 2075 eine Maschine entwickeln, die dem Menschen in all seinen kognitiven Fähigkeiten ebenbürtig ist. Also nicht nur in logischem Denken, sondern auch in Kreativität, Intuition und Fähigkeit zur strategischen Planung. Da eine solche Intelligenz sich selbstständig verbessern könnte, prophezeit Bostrom eine anschließende „Intelligenzexplosion“, die sich innerhalb von Wochen oder nur Stunden vollzieht. Und einmal gestartet, ließe sich diese Superintelligenz nachträglich von Dummis wie uns nicht mehr ins Programm pfuschen. Deshalb ist Bostroms Buch vor allem ein Aufruf an die Forschung, sich vorher – also jetzt! – der Frage zu widmen: Wie stellen wir sicher, dass eine solche Superintelligenz kontrollierbar oder uns wenigstens garantiert freundlich gesinnt bliebe? Mathematiker und Philosophen, findet er, sollten andere Probleme zurückstellen; sei die Superintelligenz erst einmal da, könne sie all ihre Fragen ohnehin besser beantworten.

Quelle: http://www.zeit.de/2015/03/superintelligenz-nick-bostrom-kuenstliche-intelligenz

Quelle: https://en.m.wikipedia.org/wiki/Future_of_Humanity_Institute

         

Veröffentlicht von Aufgewacht

Advertisements

Kommentar verfassen

Trage deine Daten unten ein oder klicke ein Icon um dich einzuloggen:

WordPress.com-Logo

Du kommentierst mit Deinem WordPress.com-Konto. Abmelden / Ändern )

Twitter-Bild

Du kommentierst mit Deinem Twitter-Konto. Abmelden / Ändern )

Facebook-Foto

Du kommentierst mit Deinem Facebook-Konto. Abmelden / Ändern )

Google+ Foto

Du kommentierst mit Deinem Google+-Konto. Abmelden / Ändern )

Verbinde mit %s