KI - Künstliche Intelligenz

Developer-Tools, Entwicklungsumgebungen und alles andere, was sich installieren lässt
Benutzeravatar
Dirty Oerti
Beiträge: 2229
Registriert: Di Jul 08, 2008 5:05 pm
Wohnort: Thurndorf / Würzburg

Re: KI - Künstliche Intelligenz

Beitrag von Dirty Oerti » Fr Sep 19, 2008 3:35 pm

C-New hat geschrieben:Bisher ist nur bekannt das wir , dem Eisbergprinzip entsprechend, nur einen kleinen Teil unseres Gehirns bewußt benutzen. Routinesachen, die oft wiederholt werden, sind im Gehirn automatisiert. Kein Mensch entscheidet sich für jeden Schritt bewußt neu, den er auf den Boden setzt.
Man ist aber in der Lage, sich für jeden Schritt bewusst neu zu entscheiden.
Wir sind also keine "Sklaven unseres Unterbewusstseins".
Das ist zumindest meine Auffassung.
Xin hat geschrieben:Nur weil Gefühle nicht logisch zu sein scheinen, ist nicht gesagt, dass sie keiner Logik folgen
Ich denke Gefühle folgen einer zwar komplexen aber dennoch klaren Logik.

Wenn jemand eine Beleidigung hinterhergerufen wird, wird er/sie sich schlecht fühlen, bzw evtl. wütend werden.
Die genaue Reaktion hängt von gewissen Eigenschaften der Person ab.
Ist die Person leicht reizbar, wird sie wütend werden.
Ist die Person sehr selbstsicher, wird sie diese Aussage nicht im Geringsten interessieren.
Ist die Person nicht selbstsicher, wird sie evtl. zu einem autoaggressiven Verhalten übergehen und die Beleidigung sehr ernst nehmen.
Xin hat geschrieben:Ich gehe davon aus, dass die Grundlagen für Bewußtsein programmierbar sind, so dass das Programm in die Lage versetzt wird, ein Bewußtsein aufbauen zu können.
Ja, aufbauen.
Ein Programm muss ein Bewusstsein aufbauen.
Man kann ihm (ihr?) kein fertiges Bewusstsein geben.
C-New hat geschrieben:Dann stellt sich aber die Frage, ob du nur die menschlichen "Gefühlscocktails" simulierst, oder ob du der K.I. eine eigene Gefühlsstruktur gibst. Die menschlichen Gefühle sind evolutionär entstanden, in einem langen Prozess. Wenn du der K.I. nur ermöglichst diese zu simulieren, dann musst du ja Gefühle für jeglich erdenkliche Situation programmieren.
Gegenfrage: Haben wir nicht auch bestimmte, grundsätzliche Verhaltensweisen, die wir uns nicht selbst angeeignet haben?
Man muss dem Programm die Bauteile geben, die es braucht, um ein Bewusstsein aufzubauen.
Diese Bauteile kann man nicht neu erfinden.
Die MUSS man vom Menschen übernehmen.
Ansonsten wird es ein Mensch nicht als Bewusstsein erkennen können.
C-New hat geschrieben:Die andere Seite wäre eine eigene Gefühlsstruktur, die sich völlig neu entwickelt. Doch wie diese aussehen könnte, ist eigentlich nicht vorstellbar, da wir ja nur unsere Gefühlswelt kennen.
Grundsätzlich ist die Gefühlsstruktur bei uns allen gleich.
Ich würde es als viel-dimensionales Koordinatensystem verstehen, in dem jede Achse ein grundlegendes Gefühl vertritt und ein Ereignis oder eine Erinnerung durch einen Punkt gekennzeichnet wird.
Xin hat geschrieben:Im Prinzip brauchen wir nur ein Gefühl: Wohlgefühl oder Unangenehmsein.
Grundsätzlich vllcht. Wobei das etwas zu einfach strukturiert ist, finde ich.
Unangenehmsein kann ja durch Wut, Angst, Trauer, Unsicherheit, Unwissen, etc verursacht werden.
Wohlgefühl könnte Schadenfreude sein. Da kann auch Wut mit drinnen sein...
Xin hat geschrieben:Die "Creatures" vererbten Fähigkeiten. Da sie vorrangig auf Schmerz/Wohlgefühl agierten lernen sie Dinge zu tun, die ihnen angenehm sind.
Ich las mal, dass Creatures, die in einen Flugsimulator gesetzt wurden, lernten, in dem sie 'abgeschossen werden' oder 'abstürzen' als Schmerz verstanden und 'Feinde abschießen' als Spaß. Nach 300 Generationen sollen sie sich (ohne Lehrer) so perfekt entwickelt haben, dass sie echte Kampfpiloten vom virtuellen Himmel holten.
Welche "Creatures" meinst du?
Links?

C-New hat geschrieben:Die menschlichen Gefühle sind evolutionär entstanden, in einem langen Prozess
Ein Computer kann (aus seiner Sicht) die Zeit um einiges beschleunigen.
Ein langer Evolutionsprozess kann für einen Computer nur 2 Stunden dauern.
Bei Fragen einfach an daniel[ät]proggen[Punkt]org
Ich helfe gerne! :)
----------
Wenn du ein Licht am Ende des Tunnels siehst, freu dich nicht zu früh! Es könnte ein Zug sein, der auf dich zukommt!
----
It said: "Install Win95 or better ..." So I installed Linux.

C-New
Beiträge: 59
Registriert: Mo Sep 15, 2008 2:33 pm

Re: KI - Künstliche Intelligenz

Beitrag von C-New » Fr Sep 19, 2008 4:25 pm

Dirty Oerti hat geschrieben: Ein langer Evolutionsprozess kann für einen Computer nur 2 Stunden dauern.
Der Satz ist echt beängstigend.

Benutzeravatar
Xin
nur zu Besuch hier
Beiträge: 8859
Registriert: Fr Jul 04, 2008 11:10 pm
Wohnort: /home/xin
Kontaktdaten:

Re: KI - Künstliche Intelligenz

Beitrag von Xin » Sa Sep 20, 2008 5:09 pm

Dirty Oerti hat geschrieben:
Xin hat geschrieben:Ich gehe davon aus, dass die Grundlagen für Bewußtsein programmierbar sind, so dass das Programm in die Lage versetzt wird, ein Bewußtsein aufbauen zu können.
Ja, aufbauen.
Ein Programm muss ein Bewusstsein aufbauen.
Man kann ihm (ihr?) kein fertiges Bewusstsein geben.
Ein Bewußtsein, das auf einem Rechner läuft, der Backups ermöglicht, kann auch ein Programm mit Bewußtsein ausliefern.
Navigationssoftware wird auch mit Stimme (Daten) geliefert, obwohl man auch eine andere Stimme erstellen kann.
Dirty Oerti hat geschrieben:
Xin hat geschrieben:Im Prinzip brauchen wir nur ein Gefühl: Wohlgefühl oder Unangenehmsein.
Grundsätzlich vllcht. Wobei das etwas zu einfach strukturiert ist, finde ich.
Unangenehmsein kann ja durch Wut, Angst, Trauer, Unsicherheit, Unwissen, etc verursacht werden.
Wohlgefühl könnte Schadenfreude sein. Da kann auch Wut mit drinnen sein...
Du befürwortest Dinge, die Dir Wohlgefuhl vermittelt und lehnst Dinge ab, bei denen Du Dich unwohl fühlst.
Ob das nun Wut, Angst, Trauer, Unsicherheit und Unwissen... ist.
Dirty Oerti hat geschrieben:
Xin hat geschrieben:Die "Creatures" vererbten Fähigkeiten. Da sie vorrangig auf Schmerz/Wohlgefühl agierten lernen sie Dinge zu tun, die ihnen angenehm sind.
Ich las mal, dass Creatures, die in einen Flugsimulator gesetzt wurden, lernten, in dem sie 'abgeschossen werden' oder 'abstürzen' als Schmerz verstanden und 'Feinde abschießen' als Spaß. Nach 300 Generationen sollen sie sich (ohne Lehrer) so perfekt entwickelt haben, dass sie echte Kampfpiloten vom virtuellen Himmel holten.
Welche "Creatures" meinst du?
Links?
http://www.gamewaredevelopment.co.uk/cr ... _index.php
http://de.wikipedia.org/wiki/Creatures_(Computerspiel)
Merke: Wer Ordnung hellt ist nicht zwangsläufig eine Leuchte.

Ich beantworte keine generellen Programmierfragen per PN oder Mail. Dafür ist das Forum da.

Metamorph
Beiträge: 123
Registriert: Sa Jul 05, 2008 12:27 pm

Re: KI - Künstliche Intelligenz

Beitrag von Metamorph » Sa Okt 04, 2008 12:10 am

Die Frage ist, ob Gefühle wirklich etwas mit Intelligenz zu tun haben.
Xin hat geschrieben:Nein. Gefühle sind zwar eine Statusänderung, doch keine plötzliche. Ein plötzliches Erlebnis (Bleistift fällt unerwartet vom Tisch) setzt Adrenalin frei, was zu fokussierterem, eingeschränktem Denken führt und Fluchtverhalten, Schmerzunempfindlichkeit.
Das erinnert mich an die ArithmeticException in Java. Kommt eine unerwartete arithmetische Berechnung im Programm vor, wird der normale Programmverlauf abgebrochen und die Standardfehlermeldung erscheint. Da ist es für das Programm nicht relevant, ob es eine Division duch 0 oder eine Wurzel aus einer negativen Zahl ist.
Es wurde nur der normale Verlauf gestört und darauf hat das Programm reagiert.
Ähnlich sehe ich das bei Gefühlen wie Angst, obwohl diese wesentlich komplexer sind. Sie sind auch nur Reaktionen auf bestimmte Situationen.

Es stellt sich aber die Frage, was Intelligenz letztendlich ist und wie man sie definiert. Dazu bedarf es einer streng rationalen und objektiven Definition und, um dann Missverständnisse zu beseitigen, einer physikalischen Größe und Einheit.

Ich bin nach wie vor der Überzeugung, dass man bestimmte menschliche Eigenschaften weglassen sollte, um dem Ziel der KI näher zu kommen.
C-New hat geschrieben:Wenn du der K.I. nur ermöglichst diese zu simulieren, dann musst du ja Gefühle für jeglich erdenkliche Situation programmieren. Was es also dabei fühlt wenn ein Stift vom Tisch fällt oder ein Blatt vom Baum oder wenn ein Mensch oder ein Tier stirbt.
Ich frage mich, ob eine KI überhaupt Gefühle braucht. Wenn das Gefühl als Reaktion angesehen wird, dann schon. Wenn aber Gefühle das Bewusstsein der KI trüben, sowie es beim Menschen oft der Fall ist, sind sie doch eher hinderlich.

Ein weiteres Problem für eine KI in einer solchen Situation ist, zu entscheiden, ob die jeweilige wahrgenommene Information (Stift fällt runter, Mensch stirbt) wichtig ist. Zum Glück können wir vergessen. Ansonsten würden wir wegen sämtlichen Details verrückt werden. Einer KI ginge es nicht besser. => Datenmüll und lange Rechenzeiten

Benutzeravatar
Xin
nur zu Besuch hier
Beiträge: 8859
Registriert: Fr Jul 04, 2008 11:10 pm
Wohnort: /home/xin
Kontaktdaten:

Re: KI - Künstliche Intelligenz

Beitrag von Xin » Sa Okt 04, 2008 8:23 am

Metamorph hat geschrieben:Die Frage ist, ob Gefühle wirklich etwas mit Intelligenz zu tun haben.
Ich denke doch, allerdings ist es in meinen Augen eine andere Form von Intelligenz. Während die digitale Logik und der Verstand doch recht eng zusammenarbeiten, sind Gefühle eher eine analoge Geschichte.
Wenn Du aus einer Kanne einen Liter Wasser in ein leeres Gefäß mit mehr als einem Liter Volumen schüttest, wieviel Liter Wasser ist danach im Gefäß?
(Welches Gefühl hast Du bei dieser Frage?)

Bei abstrakter logischer Betrachtung, befindet sich ein Liter Wasser im Gefäß. Dieses Denken reicht im Alltag, es bleibt überschaubar. Und doch hält es bereits einem zweiten Blick nicht mehr stand.
Denn in der "analogen" Welt, sieht die Sache anders aus: es wird weiterhin noch etwas Wasser in der Kanne sein. Ein paar Tropfen können beim Einschütten verspritzt worden sein und während Du das Wasser umschüttest, verdampft ein kleiner Teil. Sollte es also grade nicht regnen, wird vermutlich weniger Wasser im Gefäß sein. Auch all das ist logisch nachvollziehbar, aber es logisch zu messen ist ein sehr großer Aufwand. Die analoge Methode, z.B. die Kanne vorher und naher zu wiegen ist da einfacher. Wir erfahren durch Nachmessen, dass weniger Wasser in der Kanne ist. Durch unsere Schütttechnik (Kanne umkippen, Richtung Gefäß werfen oder Wasser vorsichtig einfließen lassen) haben wir Situationen, zwischen denen wir Erfahrungswerte abschätzen können. Schnelles schütten liegt zwischen Kanne umkippen und vorsichtig einfließen lassen, also wird uns unser Gefühl sagen, dass es irgendein Mittelwert ist. Je mehr Erfahrung wir haben, desto genauer wird die Information sein, ohne dass sie logisch errechnet wurde.
So sehe ich unsere Gefühlswelt: Erfahrungen und Situationen als "analog" zu verarbeiten und ein gutes oder schlechtes Gefühl dabei zu haben. Es ist ein analoges Messen, ein abschätzen, das die logische Komponente weglässt, um Zeit und Energie zu sparen. Vorurteile basieren darauf und Vorurteile sind nicht vorzuverurteilen, sie sind lebensnotwendig. Man sollte nur wissen, dass man sie regelmäßig in Frage stellen sollte.

Ich habe Dich eben gefragt, welches Gefühl Du bei der Frage hattest: Die Situation war, dass Du gefragt wurdest, wieviel Wasser ist ein einem Gefäß, wenn man einen Liter Wasser reinkippt. Die Antwort ist logisch offensichtlich, aber Dein Gefühl wird Dir gesagt haben, dass 1 Liter nicht die richtige Antwort sein kann. Du wirst aus Erfahrung wissen, dass solche offensichtliche Fragen nur dann gestellt werden, wenn es einen Haken gibt, den Du finden musst. Du wirst in dem Moment aber nur die Sitation "offensichtliche Antwort auf Frage" begriffen haben und in den Schubladen Deiner Erfahrung gesucht haben und das passende Gefühl dafür rausgekramt haben: Skepsis. In dem Moment, wo ich Dir die Frage nach Deinem Gefühl stellte, hättest Du es aber nicht logisch begründen können.
Metamorph hat geschrieben:
Xin hat geschrieben:Nein. Gefühle sind zwar eine Statusänderung, doch keine plötzliche. Ein plötzliches Erlebnis (Bleistift fällt unerwartet vom Tisch) setzt Adrenalin frei, was zu fokussierterem, eingeschränktem Denken führt und Fluchtverhalten, Schmerzunempfindlichkeit.
Das erinnert mich an die ArithmeticException in Java. Kommt eine unerwartete arithmetische Berechnung im Programm vor, wird der normale Programmverlauf abgebrochen und die Standardfehlermeldung erscheint. Da ist es für das Programm nicht relevant, ob es eine Division duch 0 oder eine Wurzel aus einer negativen Zahl ist.
Es wurde nur der normale Verlauf gestört und darauf hat das Programm reagiert.
Ähnlich sehe ich das bei Gefühlen wie Angst, obwohl diese wesentlich komplexer sind. Sie sind auch nur Reaktionen auf bestimmte Situationen.
Wieso ist Angst komplex? Angst ist grundlegend, Angst ist das Gefühl, dass die eigene Existenz geschützt werden muss. Aber was ist daran komplex? Angst ist eins der Gefühle, dass so grundlegend ist, dass es eine Basisklasse in der KI sein müsste, von dem sich komplexere Gefühle, wie oben genannte Skepsis - die Angst reingelegt zu werden - ableiten und zwar durch lernen, durch die Erfahrung reingelegt worden zu sein.
Metamorph hat geschrieben:Es stellt sich aber die Frage, was Intelligenz letztendlich ist und wie man sie definiert. Dazu bedarf es einer streng rationalen und objektiven Definition und, um dann Missverständnisse zu beseitigen, einer physikalischen Größe und Einheit.
Ich weiß nicht, ob eine physikalische Einheit möglich ist. Wir haben bisher drei elementare Größen in diesem Universum entdeckt: Masse, Energie und Information. Wir wissen heute, dass man Materie und Energie in Verbindung mit der LIchtgeschwindigkeit gleichsetzen kann. Wir wissen also, dass ein Liter Wasser recht energiereich ist. Das oben beim vorsichtigen Umschütten verspritzte Wasser kann problemlos der Energie entsprechen, die aus Braunkohle gewonnen wird, die mit einem ein Kilometer lang Zug transportiert werden müsste.
Schornsteine sind von der Energiebilanz eines Kraftwerks vollkommen kontraproduktiv - würden wir den Rauch in einen Materie-Energie-Konverter stecken, hätten wir mehr davon. Nachteil ist halt nur, dass sich schwarze Löcher nicht auf Abgase spezialisiert haben. ;-)

Die bisherigen Versuche, Information in die Physik zu bekommen, sind allerdings eher bescheiden, jedenfalls das was ich bisher davon gehört habe. Es sind eher philosophische Betrachtungen, als physikalische. Auch sind mir als Informationswissenschaftler keine Größen bekannt, die den Wert einer Information kennzeichnen könnten.
Wir können Information gestalten, in dem wir zum Beispiel Pixel in einer gewissen Anordnung - in Formation - auf dem Bildschirm darstellen, aber wir können daraus weder Materie, noch Energie generieren.
Wir wissen, dass Leben ohne Information nicht möglich ist. Dein Körper sind Atome inFormation, deine Umwelt ist inFormation. Verstreut sie sich im Vakuum, verliert sich die Information in Entropie, so gibt es weder Leben, noch die Information, dass es Leben gegeben haben könnte: Das "Nichts" aus der unendlichen Geschichte.

Eine grundlegende Eigenschaft für Information ist Schwerkraft, denn sie hält Informationen zusammen.
Wir wissen, dass Äpfel von Bäumen fallen. Wir wissen aber nicht warum.
Wir erfahren und fühlen Schwerkraft. Das Thema ist aber zu komplex, als dass Menschen es bisher mit ihrem Verstand erfassen oder beschreiben können. Es gibt Theorien, wie Schwerkraft funktioniert. Und die Erfahrung, dass bisher alles, was dichter als Luft ist, sich nach unten bewegt.
Wir sind noch nicht soweit, um Information messen zu können. In dem Fall ist die Informatik weiter - aber finde mal einen Informatiker, der sein Geld mit Informations-Wissenschaften verdienen kann, die meisten schreiben Datenbankanwendungen.
Metamorph hat geschrieben:Ich bin nach wie vor der Überzeugung, dass man bestimmte menschliche Eigenschaften weglassen sollte, um dem Ziel der KI näher zu kommen.
Ich bin der Überzeugung, dass wenn wir KI erzeugen wollen, wir uns den Menschen und der Sprache widmen müssen. Der Mensch ist nunmal die am weitesten entwickelte KI auf diesem Planeten.
Metamorph hat geschrieben:Ich frage mich, ob eine KI überhaupt Gefühle braucht. Wenn das Gefühl als Reaktion angesehen wird, dann schon. Wenn aber Gefühle das Bewusstsein der KI trüben, sowie es beim Menschen oft der Fall ist, sind sie doch eher hinderlich.
Ich sehe Gefühle beim Menschen direkte Implementierung von Hash-Tables.

Die Werkzeuge für ein künstliches Bewußtsein haben wir in der Informatik. Wir haben nur noch nicht die Information, was notwendig ist, um ein künstliches Hirn anzufahren oder gar aufzubauen.
Metamorph hat geschrieben:Ein weiteres Problem für eine KI in einer solchen Situation ist, zu entscheiden, ob die jeweilige wahrgenommene Information (Stift fällt runter, Mensch stirbt) wichtig ist. Zum Glück können wir vergessen. Ansonsten würden wir wegen sämtlichen Details verrückt werden. Einer KI ginge es nicht besser. => Datenmüll und lange Rechenzeiten
Was das runterbrechen auf Grundinformationen erforderlich macht.
Ein Erlebnis wird auf einen elementaren Datentyp runtergebrochen, der als Schlüssel in eine Hash-Table gesteckt werden kann, um die passende Reaktion abzurufen. Was mir dazu passend auffällt ist, dass die Erweiterung der Hashtable, die das Anlegen eines neuen Schlüssels erfordert im Deutschen 'Schlüsselerlebnis' genannt wird.

Sprache ist häufig ein gutes Indiz für Zusammenhänge. Auch wenn die Worte aus unterschiedlichen Richtungen für unterschiedliche Sachverhalte genutzt werden, so kennzeichnen sie doch häufig ähnliche Bedeutungen. Ein Grund, weshalb ich mich bei der Entwicklung von Genesys (meiner Programmiersprache) auch gerne mit menschlicher Sprache auseinandergesetzt habe und ein Grund, warum ich mit Bedauern feststelle, dass die Sprachkultur der Jugendlichen sich durch mangelnde Sprachkenntnisse vereinfacht (neutral ausgedrückt).

"Languages shapes the way we think, and determines what we can think about." (B.L.Whorf)
Eine KI, die sich mitteilen soll, muss Sprache lernen können. Wir haben keine Worte, um den Wert von Informationen zu beschreiben, also fällt es uns schwer, über den Wert von Informationen zu denken.
Merke: Wer Ordnung hellt ist nicht zwangsläufig eine Leuchte.

Ich beantworte keine generellen Programmierfragen per PN oder Mail. Dafür ist das Forum da.

Benutzeravatar
cloidnerux
Moderator
Beiträge: 3123
Registriert: Fr Sep 26, 2008 4:37 pm
Wohnort: Ram (Gibts wirklich)

Re: KI - Künstliche Intelligenz

Beitrag von cloidnerux » Sa Okt 04, 2008 3:07 pm

ICh denke es gibt schon Lange KI's die wie Lebewesen sind. Man schaue scih nur die Computerspielan. Aber diese KI's sind beschrägt programmiert wurden. Mann muss eigentlich 100 Menschen den gliechn situationen aussetzen und schauen was sie amchen. Daraus kann man das Standartverhalten und denken herausfinden und Programmieren. Und dann sollten sich die KI's weiterentwickeln können. Daher scih selbst verbessern. Und dann sollte man keine Neue KI'Programmieren, sondern durch verschmelzen durch zwei andere KI'eine neue Schaffen, das Prinzip der Evulution, Eine Stetige verbesserung und wandlung
Redundanz macht wiederholen unnötig.
quod erat expectandum

Antworten