Dunkel

Wie sieht der Krieg der Zukunft aus? Kampf-Roboter mit künstlicher Intelligenz | Breaking Lab

Breaking Lab
Abonnieren
Aufrufe 60 341
98% 594 9

Wie sieht in Zukunft Krieg aus? Welche Rolle spielt künstliche Intelligenz (KI) dort? Wir schauen uns den aktuellen Stand der Technik an, reden mit dem Rechtsanwalt Christian Solmecke und schauen was in Zukunft noch zu erwarten ist. Zum Beispiel geht es um die Harpy Drohne, welche in Israel entwickelt wird.
Link zum Video von Christian: de-vid.com/video/video-Vwhy7UfBcEU.html
Link zum ARTE-Longplayer: de-vid.com/video/video-X-kID4OkAPU.html
Breaking Lab bei Instagram: @breakinglab
Ich bin Jacob Beautemps und mache gerade meinen Doktor an der Universität zu Köln. Vor drei Jahren habe ich zusammen mit Philip Häusser diesen DE-vid Kanal gegründet und seit 2018 stehe ich nun selbst vor der Kamera. In meiner Forschung an der Uni geht es um das Thema "What comprises a successful educational DE-vid video?: the optimization of DE-vid videos’ educational value through the analysis of viewer behavior and development via machine learning." Oder kurzgesagt: Wie lernt man auf DE-vid und wie können wir das mit künstlicher Intelligenz optimieren. Dies fließt natürlich stark in meine DE-vid Videos mit ein, denn hier geht es auch darum möglichst viel über Physik, Chemie, Technik und andere naturwissenschaftliche Themen zu lernen.
Hat dir das Video gefallen? Klick auf "Daumen hoch" und lass ein Abo da! Dein Feedback motiviert mich zu neuen Videos. Dankeschön :-)

Wissenschaft & Technik

Am

 

3 Dez 2019

Teilen:

Link:

Video herunterladen:

Link wird geladen...

Hinzufügen:

Meine Playlist
Später ansehen
KOMMENTARE 60
Lolipop Lolipop
Lolipop Lolipop Vor Monat
In der Zukunft wird es keinen Krieg geben
ME_Gaming
ME_Gaming Vor Monat
Kurzer Vorschlag: wie wäre es mit gar keinem Krieg?
LW Heide
LW Heide Vor Monat
Ich bin Gegen KI im Kampf
Paralytic Angel
Paralytic Angel Vor Monat
Krasses Thema. Es gibt tatsächlich Punkte dafür und Punkte dagegen. Ich glaube ich würde es wohl eher befürworten das KI's in Zukunft die Exekutiven sind. Aber auch nur dann, wenn: - sie 100% fehlerfrei laufen - sie eine sehr ethische Lernphase absolviert und 100% gemeistert haben - wir eine weltweite gemeinschaftliche Organisation daraus gemacht haben, besser wie die UN - wir sie im Sonderfall, mit Vetos etc., gemeinschaftlich stoppen können - sie erst melden was sie vorhaben, sich zu bekennen geben und dann erst schießen Und warum? Weil ich denke das wir mit solch einer Maschinerie um gewaltige Mengen weniger Kriege führen würden. Erstmal, weil wir keine Ressourcenkriege mehr führen können.^^ Denn das ist sehr unethisch und würde es zum Ethik-Lehrgang der KI's einfach nicht schaffen. Und da wir UNBEDINGT eine weltweite Gemeinschaft dazu beauftragen, und die weisesten unserer Länder dort korrespondieren lassen, werden es keines solcher Macht bezweckenden Befängnisse durch zu kommen schaffen. Ergo unsere KI's wären im Endeffekt unparteiisch und nur zu Zwecken, Gefahren sehr effektiv einzudämmen bereit. Und trotz alle dem, MUSS die KI melden was sie vorhat, und die Korrespondenten müssen Ja oder NEIN sagen können. Ist die Wahl eindeutig JA, darf die KI wie sie gedacht hat weitermachen. Ist die Wahl enger, muss die Handlung der KI leicht vertagt werden und die Korrespondenten müssen diskutieren und sich einig werden. Klar ist dann evtl. eine Gefahrensituation entwischt, doch die KI wird die Sache wieder aufnehmen sobald Klarheit bei der Union^^ herrscht. Dies würde im Endeffekt dazu führen das wir weitaus sehr viel geringer mit Waffen auf Menschen zielen. Und kein Staat hätte allein die Macht zu Füßen liegen. Ich wäre dafür.
OmegaClark
OmegaClark Vor Monat
wieviel Energie in künftige Kriegsführung gesteckt wird anstelle die Energie für den Frieden einzusetzen. Es ist so traurig.
Der seriöser Kritiker
Da bekommt die Definition Vollautomatische Waffe eine andere Dimension
Jo
Jo Vor Monat
weg mit dem Dreck...um Menschen zu töten wird die Wissenschaft missbraucht...einfach nur abartig! Die Menschheit schafft sich selber ab!
Falko Tübel
Falko Tübel Vor Monat
wäre nicht der logische schritt ,das langfristig nur noch KI Waffen gegeneinander kämpfen? Mit einem Minimum an Menschlichen opfern.
pasa einsacht
pasa einsacht Vor Monat
Also ich halte die starke KI allgemein für sehr gefährlich ich fände es ein Wunder wenn wir Menschen fähig sind sowas zu erschaffen also quasi eine neue Lebensform ob das wirklich so wie in manchen filmen möglich ist bleibt abzuwarten aber ich glaube wenn es soweit kommt werden wir dieser neuen spezies mehr als unterlegen sein und wir können nur noch beten das sie nicht wie ihre Schöpfer handelt und uns unterwirft auslöscht o.ä. sondern in Co-Existenz mit uns leben wird..
mad Helmchen
mad Helmchen Vor Monat
Flächenbombardierungen finden aber nicht aus irrationaler Angst statt...
mad Helmchen
mad Helmchen Vor Monat
Die Frage ist eher, wozu Kriege eigentlich da sind und wer das in Zukunft noch befürwortet...
KindDesWahnsinns
Letztlich würde ich eine KI fragen, für welche Option sie sich bei diesem Prisoners Dilemma entscheidet - zumindest wenn ich ein Staat mit hinreichend großen Ressourcen bin. Für kleinere Staaten ist die Frage komplexer, da es mindestens zwei Staaten mit derartigen Ressourcen gibt, nennen wir sie Blau- und Rotland.
Kevin Osfolk
Kevin Osfolk Vor Monat
Am besten alle Kriegs Waffen verbieten und keine neuen entwickeln!!!
alex 2000
alex 2000 Vor 2 Monate
Auf jeden Fall sollten sie verboten werden allein aus dem Grund das die Hemmschwelle sinkt wenn man keine Menschen mehr in Gefahr bringen muss um Krieg zu führen.
Liguehunterss
Liguehunterss Vor 2 Monate
KI waffen verbot wird nicht funktionieren. Dass ist wie Nordkorea und dem Iran atombomben zu verbieten.
M Pä
M Pä Vor 2 Monate
Wir reden über Materialschlachten. Das halte ich für sinnlos. Also warum überhaupt die Waffe entwickeln? Wäre es nicht sinnvoll, alternative Problemlösungsstrategien zu erarbeiten?
Ta' Uri
Ta' Uri Vor 2 Monate
Ich hoffe ja, dass der Mensch in der Zukunft in der Lage ist ohne Konflikte zu leben.
MrMichaelHeat
MrMichaelHeat Vor 2 Monate
Und großes Lob an die CEOs und Geschäftsführer, die sich geschlossen gegen die Produktion von KI Waffensystemen aussprechenausgesprochen hben.
MrMichaelHeat
MrMichaelHeat Vor 2 Monate
Ahhhhh! Da fällt mir gerade ganz sponti folgendes ein: Soldaten sitzen in Zukunft NUR noch in den Containern zur Überprüfung und Steuerung der Software, die die KI´s kontrollieren. Schlachtfelder gibt es nicht mehr. Es beschießen und bekämpfen sich auf einem vorab definiertem Areal die KI Kampfmaschinen. Szenen in denen Kinder geschlachtet werden, Soldaten routiniert und menschenunwürdigst anderen Artgenossen das Leben nehmen u.s.w., müssen und sollten so beinahe gänzlich wegfallen. Die Maschinen zerstören dann maschinen. Die Schlachtfeldareal GPS-Daten werden vorab als Begrenzungswerte in die Aktiv Beweglichen KI Kampfmschinen geladen, so dass diese nicht doch auf Wanderschaft gehen. Für Fehler ist der jew. Ranghöchste Vorgesetzte in jedem Container immer verantwortlich, da er das finale "Go" gibt zur scharfschaltung und durchführung eines KI Angriffes.
Nico 1006
Nico 1006 Vor 2 Monate
Ich finde KI-Waffen einerseits gut aber auch schlecht. Das gute ist das bei voll autonomen KI-Waffen keine Menschen bei einem Krieg sterben bzw. weniger Tote. Das schlechte ist das wenn der Programmierer einen Fehler macht sehr viele Unschuldige sterben können oder die KI-Waffen etwas falsch erkennen.
Que Será Será
Que Será Será Vor 2 Monate
Deutschlands starke Waffenlobby könnte auch dem Verbot entgegenstehen.
oli oli
oli oli Vor 2 Monate
Hier wird darüber schwadroniert Kriege irgendwie humaner zu machen bzw. mit KI zu verbessern. Das ist unterirdisch. Menschen zu töten ist immer Mord und der es tut, anweist, oder unterstützt ist ein Mörder. Töten ist keine menschliche Eigenschaft, es muss den Soldaten anerzogen werden. Eine KI hat damit kein Problem. Kanal heute früh abonniert, wird jetzt wieder rausgeschmissen.
Marcus Mees
Marcus Mees Vor 3 Monate
Wenn man sich auf eine KI Ethik einigen würde, bedeutet das nicht, das diese auch eingehalten werden. Wer einen Krieg anfängt, will ihn gewinnen. Egal wie.
Alb1oN . d
Alb1oN . d Vor 3 Monate
Skynet ist gekommen!!!
Gesund ABC - MakeTheWorldGreatAgain!
Alle hochraningen Forscher, Politiker, Diplomaten, Offiziere, Progammierer etc. sind eine Scheinsymbiose mit Pilzen (Hefen/Schimmel) eingegangen. Von jenen werden Sie Fremdgesteuert. Die Pilze machen sie vermeintlich intelligent und verfolgen dabei nur ein Ziel: Ausbreitung bis die Erde nicht mehr ausreicht und dann ab ins All...
Gesund ABC - MakeTheWorldGreatAgain!
Es gibt nur einen Weg: jeder müsste sofort seine Arbeit niederlegen, Giro- und Sparkonten auflösen, alle Versicherungen kündigen. Dann würde der Staat keine Steuern mehr einnehmen, keine Kassenbeiträge, Banken und Versicherungen könnten nicht mehr mit Wertpapieren handeln und Kriege könnten nicht mehr finanziert werden. Auch die Entwicklung von KI würde dann stagnieren. Jeder könnte dann aufs Land zu den Bauern gehen und auf dem Feld arbeiten, Kühe melken und Milchprodukte traditionell in Handarbeit herstellen. Solange die Menschen das nicht einsehen und sofort handeln, dürfen Sie sich auch über nix mehr beschweren. Auch nicht wenn Sie eines Tages von der KI ausgelöscht werden. Es gibt nix gutes außer man tut es.
Nileus
Nileus Vor 3 Monate
Selbst wenn die KI gegeneinander kämpft wird irgendeine Seite auf die Idee kommen das "Kontrollzentrum" der KI anzugreifen wobei dann letztendlich wieder Menschen sterben. KI-Krieg wäre nichts anderes als wenn man Schach als Brettspiel spielt nur das Ressourcen die man normalerweise in Forschung und Entwicklung stecken könnte verloren gehen.
saftsack Bubi
saftsack Bubi Vor 3 Monate
Krieg ist Krieg. Dabei geht es darum seinen Gegner zu vernichten. Regeln oder ähnliches sind nur Hirngespinste von Gutmenschen um den Krieg zu verharmlosen, oder Ausreden von Waffenlobbys um damit die Akzeptanz für militärische Einsätze in der Bevölkerung zu erhöhen. Außerdem wird sich im Ernstfall sowieso nicht an die Regeln gehalten. Man kann nicht verhindern das solche Waffen entwickelt werden, da es immer jemanden mit dem nötigen know how geben wird der solche Waffen enwickeln wird (wenn die Bezahlung stimmt). Hört auf euch was vor zu machen. Krieg ist schrecklich. Regel bringen aber nichts. Man sollte sich lieber Gedanken wie man KI Waffen aufspüren abwehren/vernichten kann falls man jemals von so etwas angegriffen wird. Aber Krieg verbieten??????? Oder Waffen verbieten????? Kommt schon so blöd kann wirklich keiner sein dass er an so etwas als Lösung wirklich glaubt. Nach der Logik kann man dann auch Krankheiten oder den Tod verbieten. PS: KI-Waffen machen es möglich das eine einzige Person die gesamte Welt unterjochen kann. Man sollte besser dafür sorgen das nicht nur eine Machtgruppe die Kontrolle über solch eine Macht besitzt. Wir sehen ja an der Atomwaffe zumindest ansatzweise zu was das führen kann.
Rostbry
Rostbry Vor 3 Monate
Wo ist da bitte noch der 'Sinn' hinter den Krieg. Es wird nur noch Zivilisten als Opfer. Sonst geht doch nur noch ums Geld. Wer mehr Geld hat kann mehr kaufen....
Andreas Hahn
Andreas Hahn Vor 3 Monate
Krieg war, ist, wird niemals ethisch sein!
g man
g man Vor 3 Monate
ich kann es nicht nachvollziehen das die Weltbevölkerung sich nicht zusammen setzt, Vorhandene Gebiets rechte festschreibt, und eine Globale Einheit einsetzt um diese Grenzen zu schützen. Warum Erlaubt man Ländern noch Militär aufzubauen. Wie kann es sein dass es noch Länder gibt in dem das Militär Regiert?? Wie können wir so etwas zulassen?? Allerdings können Nationen wie China nicht sofort in eine Demokratie wechseln den Fehler hat man in Russland gemacht dort Regiert die Mafia jetzt. Während China ein Land ist dass immer vorteilhafter für die Bevölkerung ist schade nur das der Kapitalismus immer stärker wird. Autonome Waffen für Verbrechen warum nicht wäre super für sichere Strassen, die würden nicht so oft wie die Polizei Wegschauen. Verbrecher und Schläger brauchen wir nicht.
Big Boy Brucie
Big Boy Brucie Vor 3 Monate
Ich persönlich bin gegen KI Waffen aber nicht generell gegen KI's. Ich stehe kritisch gegenüber diesem Thema bin aber für Forschung an der KI da es nicht nur interessant ist sondern auch viele Vorteile hat
BlueFlame DB
BlueFlame DB Vor 3 Monate
Man muss es so sehen wenn deutschland versprechen würde keine ki zu nutzen könnte es von ländern mit ki zerstört werden erst wenn wirklich ALLE dagegen sich aussprächen sollte aufgehört werden. Und nein es sollte nicht einer anfangen weil das jeweilige land dann eine gute zielscheibe abgeben würde
Schue7ze
Schue7ze Vor 3 Monate
Finde KI's im Krieg einzusetzen besser als Menschen tbh, weil man die Gier der Menschheit nicht unterdrücken kann, was zu Kriegen führt, aber wenigstens sterben dann halt keine Menschen mehr.
Su Kule
Su Kule Vor 4 Monate
Dann wird die hemmschwelle für kriege kleiner
Christian Dassler
Christian Dassler Vor 4 Monate
Ich finde mal so einfach den Krieg abschaffen also kriegsverbot kein Krieg mehr auf der ganzen Welt als endlich friedlich und es wird kein Menschenopfer und keine KIS geben die irgendwelche Menschenopfern oder gar töten oder die Technik ausrastet und alle Menschen tötet bringt man die Vorschläge der Terroristen mal schauen wie lange das noch gut geht bis sie irgendwann mal so niedlich daher Atombombe auf alle Länder der Welt schicken
Julian F.
Julian F. Vor 4 Monate
Also ich würde eher an futuristischen Anzügen und moderneren Waffen für Soldaten bzw. Spezialeinheiten arbeiten! Meiner Meinung nach ist es für den Einsatz und die Entwicklung solcher Geräte noch etwas zu früh.
jan_ re
jan_ re Vor 5 Monate
was macht einen Krieg ethischer, wenn eine KI statt einem Menschen den "Schießbefehl" gibt?
General Durchbruchmüller
Denkst doch an Asimovs Robotergesetze...
Lucas
Lucas Vor 5 Monate
Vollautonome Waffen gehören verboten. Es muss einen Menschen geben der den Schießbefehl gibt
Isajah Tappe
Isajah Tappe Vor 5 Monate
Es wäre sehr schön wenn zukümftig Kriege von Robotern ausgetragen werden. Aber so wird es wahrscheinlich niemals klappen. Und dann könnten solche Waffen sehr gefährlich sein.
rayo toxi
rayo toxi Vor 5 Monate
ich sage das wenn KI Waffe Selbst Entscheiden ob die jetzt abdrücken oder nicht Sollte nicht erlaubt sein aber KI die für Ziel Hilfe bspw Ziel Verfolgung von Kampfhelis man Visiert ein Panzer oder mensch an und der bordcomputer verfolgt ihn mit denn faden kreuz und gibt vor halte punkt an aber der schütze muss denn feuer befehl geben so Systeme finde ich noch OK Oder APS Systeme bei Panzern die schützen die Besatzung gegen Raketen Es gibt Soft Kill APS das sind Infrarot Drazzlern die die Rakete verwirren soll oder Rauchwerfern Und Hard kill APS das sind Systeme die Projektile gegen andere Projektile schießen um denn Projektile zu zerstören
Felix Crump
Felix Crump Vor 5 Monate
Skynet
Leon
Leon Vor 5 Monate
Ich denke, dass es mehr Kriege geben wird, wenn KIs im Militär landen, weil man sich im Hinterkopf sagen wird es werden weniger bis kaum Menschen sterben, da die KIs nicht auf diese schießen. Und Krieg ist nichts schönes!
Alexander Hartmann
Alexander Hartmann Vor 5 Monate
Es wird zwangsweise zum Einsatz von KI und AI kommen in der Rüstung. Damals z.B. war der Film Terminator ein "unrealistischer Film mit einem Hauch von Action". So konnte man sich nicht vorstellen, das es Maschinen gibt, die einen Auftrag bekommen aber den Weg zum Ziel selbst abwägen. Jedoch ist das größte Risiko, das autonome Intiligenz selbst lernt, und Vorgehensweisen nach einigen Wiederholungen "optimiert". Diese Optimierung bringt die eigentliche Gefahr mit sich. Da sie sich frei entwickeln kann. Und wer die Behauptung aufwirft, dies könnte man durch Blockaden eingrenzen, liegt falsch. Informationen solcher Art setzen sich aus einem wabenförmigen Netz zusammen. Es werden mehrere Daten erfasst um eine Handlung umzusetzen. Fällt eine Information weg, so wird diese durch eine andere ersetzt. Unter umständen kann dies zu einer anderen Reaktion der KI führen. Manipuliert man Informationen der KI wird das ganze noch ausschweifender, da die Manipulationen bei eingehenden Informationen losgehen kann, bis hin zum Kern der KI, dem Algorithymus. Und es wird sich auch nicht vermeiden lassen, das Terroristen in den Besitz kommen. Hardware ist heutzutage günstig und das programmieren von KI wird einem schon bei DE-vid Tutorials gezeigt. So toll sich KI in manchen Bereichen wie Smart Home oder der Industrie anhören mag, so immens gefährlich wird sie auch im Bereich des Militärs und des Cyberkriegs sein. Folgender Satz wird für Gelächter hinterm PC sorgen. Aber ich verweise nochmal auf den ersten Satz. " Der Datenschutz sollte nicht auf die leichte Schulter genommen werden. Bei den technischen Möglichkeiten brauche ich nur noch Facebokk, Google und eine bewaffnete Drohne und keinen Autftragsmörder mehr für 500.000€. Den Rest erledigt eine KI ohne den geringsten emotionalen Konflikt."
Leon Weedness
Leon Weedness Vor 5 Monate
Wenn Dinge verboten werden dann werden sie trotzdem getan allerdings ohne Kontrolle... Siehe Drogenpolitik.
ERRORlp
ERRORlp Vor 5 Monate
2030 roboter mit aimbot
MaxPower
MaxPower Vor 5 Monate
Während wir in Europa noch in 20 Jahren darüber diskutieren werden, wie schlimm ki fürs Militär sei, werden Russland China und co ihre KI Armeen haben, wir sind dann am Ende die deppen
Morioh
Morioh Vor 5 Monate
Krieg ist schlimm. Das Krieg überhaupt existiert sollte gar nicht erst der Fall sein. Wenn man jetzt auch noch hin geht und einer der beiden Parteien das "Recht entzieht" sich angemessen zu wehren da man dann eben nur noch auf den Angreifer (Roboter) und eben nicht (Ebenwürdiger) schießen/sich wehren kann fängt man doch genau so an wie in vielen Filmen prophezeit und gezeigt wurde wo das alles hinführen kann. Zumahlen erwähnt dass desto weiter sich der Angreifer vom eigentlichen Sachgeschehen entfernt umso "egaler" ist es dieser Person auch und somit kommen Menschliche Emotionen wie z.b. Reue gar nicht erst hoch und Krieg würde nur noch mehr gepusht werden da es ja wie gesagt mehr oder weniger einfach egal ist. Siehe bei uns hier in Deutschland, wenige die das hier lesen waren jemals im Krieg und wenn wir die News gucken dann fühlen wir eventuell Mitleid aber auch nicht mehr als das. Wären wir wirklich da im Krieg und müssten selber buchstäblich um unser Leben kämpfen so würden wir zu diesem Thema ganz anders reagieren und genau so ist es auch mit demjenigen der einfach nur noch einen Knopf drücken muss und danach einfach so weiter lebt als wäre nichts geschehen aber in wirklichkeit sind gerade mehrere Leute ums leben gekommen die auch er hätte sein können. Ich könnte über die Sinnlosigkeit von Krieg noch viel weiter schreiben aber ich belasse es hierbei. Ich denke das ist ein großes Thema und sollte definitiv JETZT entschieden werden wie man damit umgeht denn Menschen mit Maschinen aus zu tauschen ist schonmal gar nicht in diesem Falle in irgend einer Weise einfach.
gidion 187
gidion 187 Vor 5 Monate
Da Sehe Ich am Horizont schon SkyNet winken!!!
DKE H-Wave
DKE H-Wave Vor 5 Monate
Ki Waffen und auch alle konventionellen Kriegswaffen sind eigentlich nicht ethisch. Das eigentliche Hintergrundproblem ist die wahnsinnige steigende Ūberbevölkerung und der damit verbundene Ressourcenverbrauch. Nur darüber reden keiner.
Traywor
Traywor Vor 5 Monate
Wie bei jeder Technologie muss man sich grundlegende Fragen als Entwickler stellen: Was will ich eigentlich erreichen? - Einfacher Gegner ausschalten Was erreiche ich aber? - Maschinen, die selbstständig Daten auswerten und Entscheidungen über Leben und Tod treffen Was ist der Bereich der möglichen Konsequenzen? - Sehr unverhersagbarer, bei Defekten und Fehleinschätzungen der KI, Noch sehr viel unvorhersagbarer, bei Verbreitung unter Menschen. Die Antworten verraten eigentlich schon, ob man die Technologie entwickeln sollte.
Micha [Rex 50]
Micha [Rex 50] Vor 5 Monate
Ich bin der Meinung das niemals so weit kommen darf. Die Menschen sollen sich gefälligst vertragen.
Steffan Tatkraft
Steffan Tatkraft Vor 5 Monate
In Deutschland läuft die ethnische Säuberung bislang auch ohne KI recht erfolgreich. In der hybriden Kriegsführung ist KI ein Werkzeug von vielen.
JS
JS Vor 5 Monate
Wichtiges Thema, danke für dein Video
max musterman
max musterman Vor 5 Monate
Ein ethischer Krieg wäre der wo keiner hingeht.
Low_skill
Low_skill Vor 5 Monate
Naja, wenn ich mir denke liegt die Lebens Filter vor uns, irgendwann werden wir uns ja auslöschen, wenn es so weitergeht
XELA InterStream
XELA InterStream Vor 6 Monate
Und was genau passiert wenn die Programmierung der kis fehlerhaft ist und die kis auch gegen alle Menschen richten. ( ungefähr so wie bei avengers und ultron ) Man darf die kis niemals kombinieren und denen macht geben selbst schiessbefehle auszuüben. Den sonst hat die Menschheit dann einen realen ultron erschaffen.
ingo pinkowski
ingo pinkowski Vor 6 Monate
Das hat Steven Hawkinson gemeint,wenn er sagte das eine KI irgendwann das Ende der Menscheit bedeuten wird. Warum? Ganz einfach. KIs in der Hand des Militaers und der Geheimdienste haben keine Moral und werden nie eine haben denn es wurde Ihnen nie beigebracht. Eine KI ohne Moral wird den Menschen frueher oder spaeter als Laestig empfinden. Der Terminator laesst dann gruessen.
Swiss Invest
Swiss Invest Vor 6 Monate
Wie soll denn die Programmierung aussehen? Nur böse Menschen werden getötet. Wer böse ist entscheidet dann immer noch nur eine Partei. Und was Passiert mit einem Krankenhaus, welches von "bösen Menschen" genutzt wird? Oder mit einem Markt wo "böse Menschen" einkaufen gehen? Oder mit einer Hochzeit wo ein paar "böse Menschen" eingeladen sind? Oder noch besser was ist mit Kindersoldaten die zum Krieg gezwungen wurden? Ich denke es wird nicht lange dauern bis die KI jemanden als Terroristen oder sonst was ansieht und unschuldige getötet werden. Was sollen die dummen Militärs auch denken: Oh das sind mehrere Feinde. Wir sollten sie schleunigst töten bevor sie uns bedrohen. Und das ohne infrage zu stellen, ob es überhaupt "Feinde" sind.
Nächstes Video