Guest
Deleted User
|
Die derzeitigen "AI" Ansätze sind großteils gut und helfen uns gewisse Sachen effektiver und effizienter zu machen.
Ich hab deshalb eine General AI Faden aufgemacht, wo es um die wirklich gefährliche Sachen geht.
|
Longbow
Here to stay
|
Der Musk ist genauso interessiert an einer Pause wie Russland an einem Waffenstillstand in der Ukraine.
Er hat gehofft mit seinem Zeug No.1 zu werden und abzucashen, jetzt ziehen die andern davon. Zwischendrin wieder "Mimimi autopilot", aber nächste halbe Jahr!!! ganz sicher!!!
... gleich nach dem Jahr des Linux Desktop.
|
charmin
Elder0_o
|
Der Musk ist genauso interessiert an einer Pause wie Russland an einem Waffenstillstand in der Ukraine.
Er hat gehofft mit seinem Zeug No.1 zu werden und abzucashen, jetzt ziehen die andern davon. Zwischendrin wieder "Mimimi autopilot", aber nächste halbe Jahr!!! ganz sicher!!!
... gleich nach dem Jahr des Linux Desktop. Fuuull ack.
|
Guest
Deleted User
|
Musk und Konsorten glauben scheinbar, dass wir sehr nahe vor der Singularität stehen. Siehe charmins Lex link - dem ist noch nicht so..
|
Longbow
Here to stay
|
Musk und Konsorten glauben scheinbar, dass wir sehr nahe vor der Singularität stehen. Siehe charmins Lex link - dem ist noch nicht so.. Der Musk glaubt auch, dass er im Q3/23 den level5 Autopilot für Tesla fertig hat
|
Guest
Deleted User
|
touche..
|
eitschpi
meeega cool
|
Der Musk glaubt auch, dass er im Q3/23 den level5 Autopilot für Tesla fertig hat  Du hast 2017 falsch geschrieben.
|
TOM
ElderOldschool OC.at'ler
|
@Pause Giant AI Experiments: An Open Letter wichtiges statement, but too little too late - pandoras büchse ist offen
Warum hier übrigens reflex-artig auf Elon hingehauen wird, kann ich nicht ganz nachvollziehen... er warnt schon sehr lange und sehr intensiv davor.
Ich vermute AI wird sich vergleichbar wie Klimawandel und Atombomben entwickeln: Ignorieren bis uns das Wasser bis zum Hals steht und dann noch ein bisschen weiter ignorieren.
Erst wenn ein Hiroshima & evtl. ein Nagasaki passiert, dann wird es zu einem weltweiten agreement dazu kommen. (und der Kicker ist ja, dass sich eine künstliche Superintelligenz u.U. innerhalb von kürzester Zeit von Little-Boy zur Zar-Bombe und darüber hinaus entwickelt)
Aus meiner Sicht muss es also erst komplett eskalieren, bis wir die Gefahren realisieren. Wir sind und bleiben einfach haarlose Affen.
|
Guest
Deleted User
|
|
eitschpi
meeega cool
|
Musk sagt doch auch, dass wir in einer Simulation leben. Da wärs irgendwie kontraproduktiv, wenn uns AI zerstören würde.
|
Guest
Deleted User
|
Musk sagt doch auch, dass wir in einer Simulation leben. Da wärs irgendwie kontraproduktiv, wenn uns AI zerstören würde. So unglaublich ist das ehrlich gesagt gar nicht.. unsere "realität" könnte in der Tat eine Simulation sein.. Siehe Nick Bostrom.. _>
|
charmin
Elder0_o
|
Eliezer Yudkowsky: Dangers of AI and the End of Human Civilization | Lex Fridman Podcast #368 Ok, ich muss mir jetz echt mal a Folge reinziehen.
|
Mr. Zet
Vereinsmitgliedresident spacenerd
|
Die sehr spezifischen Ansätze die wir momentan haben, sind noch Jahre(zehnte) von etwas wirklich gefährlichem entfernt. Meine Meinung: Sowas von wrong... Kategorie "aged like milk" Technologie hat sich bis jetzt immer auf einer exponentiellen Kurve entwickelt und die AI Entwicklung der letzten Jahre lief schon deutlich steiler, als die Entwicklung der ersten Transistoren oder von Internet. Das dauert keine Jahrzehnte mehr, höchstens Jahre.
|
InfiX
she/her
|
jahre? chatGPT spam und stable diffusion fake news haben wir schon heute - das als "nicht gefährlich" einzustufen halte ich für gefährlich.
|
Guest
Deleted User
|
ok, to be honest .. we are so ****ed in every way, if you have a gun - point it at and Shoot ! "
Ok, das war einer meiner dunklen Gedanken, aber ..was soll ich sagen.. its me
Ich sollte aufhören zu versuchen Bücher zu schreiben..
|