Evolution
Erste Seite | « | 1 | 2 | 3 | 4 | 5 | 6 ... 13 | » | Letzte
[ Nach unten | Zum letzten Beitrag | Thema abonnieren | Neueste Beiträge zuerst ]
Re: Evolution
von 1Alexander am 16.03.2015 15:28@Darius
Kleine Nachbetrachtung:
Aus der befruchteten Eiszelle entsteht ein Mensch mit einem komplexen Gehirn, was eine neuronale Struktur besitzt. Bei der Entwicklung spielen mit ziemlicher Sicherheit die Sinneseindrücke eine dominante Rolle. Das wäre der Input. Aber die Sinneseindrücke sind nicht verantwortlich für das Vermögen überhaupt neuronale Netze zu bilden. Jetzt könnte man spitzfindig werden und die Zufuhr von Eisweisproteinen ebenso als Input deklarieren (Grenzendeklaration). Ein Drehen an dieser Stellschraube hätte aber nur eine destruktive, keine konstruktive Wirkung.
Ähnlich verhält es sich mit Netzwerkdatenbankystemen, übrigens immer noch eine sehr theoretische Angelegenheit. Eine Komplexität entsteht ausschließlich durch verschiende Ebenen der User-Interaktion, was m. M. n. kaum beachtet wird - aber da führt hier zu weit. Trotzdem muß die Hardware angeschafft und grundlegende Software-Prozeduren bereitgestellt werden. Schlechtes Beispiel: Man kann Millionen von Jahre auf einer Tastatur rumdrücken, es wird sich dadurch kein Prozess in Gang gesetzt, wenn an der Tastatur kein lauffähiges System hängt.
Re: Evolution
von wl01 am 16.03.2015 19:15@Alexander
MfG
WL01
PS:
Habe ich schon geschrieben, dass Licht und somit jede EM-Strahlung für mich lediglich eine Turbulenz im Tachyonenäther ist?
Re: Evolution
von 1Alexander am 16.03.2015 22:16@Justin
Neuronale Strukturen sind lediglich eine Frage der trivialen Implementierung und können heute beliebig simuliert werden. Das Problem liegt eher auf der Verständnisebene. Stell Dir eine beliebige Anzahl von Entität vor, welche miteinander verknüpfbar sind. Damit meine ich nicht nur eine Netzstruktur sondern einen mehrdimensioanlen Cube, indem jede Entität mit jeder Entität verbunden sein kann. Es ist dabei völlig egal wie die Entität oder die Verknüpfung definiert ist, bzw. wie das technisch untersetzt ist (Hier der Hinweis auf deine 1/0-Abbildung). Nun stellt sich die Frage, wie kommen die Informationen rein und raus.
Wenn ich annehme das alle Daten bereits vorhanden sind, stellt sich bereits die Frage, wie kann ich diese vernünftig auslesen.
Ich spare mir jetzt weitere Erörterung zu Google, da dies eine prima repräsentatives (Negativ-)beispiel abgibt. Nur soviel:
Googel Suche//schwarze Löcher: Ungefähr 669.000 Ergebnisse (0,27 Sekunden). Das ist eine Suche, keine Finde. Ich benenne eine eindeutige Suche als vollständige Daten-Lokalisation. (verfeinerte Betrachtungen hierzu spare ich mir hier) . Das macht Google nicht, den 668.900 Informationstreffer sind irrelevant, da sie kein schwein anschaut. Das geht auf jeden Fall besser. Das führt uns aber auf einen wichtige Punkt. Die Suchergebnisse von Google sind abgeblich vom Nutzerverhalten beeinflußt. Wenn das so ist, dann ist das der richtige Weg. Danach bilden sich neuronale Netze durch Benutzung. Aus der Vielzahl von Vernüpfungsmöglichkeiten bildet sich sinnvolles Muster durch Input. Dabei ist es unerheblich ob es eine "Lese-" oder "Schreib-"Input ist. Du liegt du mit deinen mehrdimensionalen Entscheidungsebenen richtig. Über der Datenebene gibt es eine Entscheidungsebene, welche für die "angebotene" Selektion zuständig ist. Das ist der selbstlernende "Part". Dieser lernt durch Benutzung, ähnlich wie Google, nur viel eleganter. Weil wir gerade bei Ebenen sind, es bedarf natürlich noch einer Interaktionsebene. Ein solche Modell läßt sich bereits heute performant darstellen, wobei es völlig nebensächlich ist, was mit den Daten danach veranstaltet wird. Alle Informatiker sind sich einige, dass Netzwerkdatenbanken der große Knaller sind. Leider gibt so was bisher in der Anwendung nicht. Praktikabel sind bisher nur relationale Datenbanken, womit wir uns in diesem Bereich in der Steinzeit befinden. Ich behaupte aber kühn, dass sich Netzwerkstrukturen vollständig mit relationalen Mitteln abbilden lassen.
Aber das führt zu weit. Ich schlußfolgere aber daraus, dass das "Keinkorn" von vorherein vorhanden sein muß. Sollte Skynet bei mir anrufen, dann bin ich eines besseren belehrt .
Re: Evolution
von Rico am 16.03.2015 22:55Die Frage ist ob es überhaupt ‚funktionierende Systeme' im wortwörtlichen Sinn gibt. (Binärsystematik können wir dabei als völlig unreal außen vor lassen. Grüße an viele ‚Mathematiker" von Gödel und Turing aus dem Jenseits...)
So operiert ein formales Gesamtsystem Evolution, was nach meiner Meinung alles umfasst, simpel nach Try and Error.
Bei nichtlinearer Endlosigkeit ist es die logischste Folge die zu einem Gleichgewicht führt. Die Phase im großen Kuchen die wir gerade erleben scheint dabei eine fortgeschrittene.
Angenommen:
Wenn formalistisch kleinste Strukturen (>nichtlinear-indeterminierter Vorgang von unendlicher Dauer, -bedt. stetig präsent<) als generative ‚Erinnerungssequenzen' stets aktiv einleitend wirken.... und innerhalb einer Menge aus größten passiven Einheiten (>linear-determinierter Vorgang von kurzer Dauer nach rascher Anpassung, -bedt. zyklisch präsent<).... Diese kleinsten Mikrostrukturen dann bei schlagartig geänderter Resonanz, z.B. durch plötzliche Frequenzänderung, sich ihrer generativen Prozesse ‚Erinnern' müssen um weiter zu existieren.... und somit notgedrungen auf ihre größte passive Menge ‚radikal' wirken. Bei stets exponential nichtlinearer Dynamik innerhalb der größeren Menge.
Die kleinste Struktur operiert ergo als aktiver chaotischer Attraktor zwingend dynamisch (chaotisch positiv wie negativ im emotionalen Sinne) auf eine passive, sich geordnete Hypermenge (Fraktal).
Diese kleinste Struktur ist damit, trotz lokaler Zerstörung, gestaltender, weil formender Teil, einer formalen Menge/Hypermenge.
Nach Beendigung des Prozesses ordnet sich eine Menge rasch wieder, angepasst an das neue Gleichgewicht = Mechanik. Das nennen wir selbstorganisierende Evolution. Bildung von Strukturen bzw. Fraktalen sind Ausdruck dessen.
Das bedeutet Fraktale sind Wirkung eines passiven Systems (>linear-determiniert von kurzer Dauer nach rascher Anpassung). Diese ‚Dauer' ist relativ zum stets wirkenden lokalen Horizont eines Attraktor (>kleinste Struktur mit größter Wirkung). Sicherheit (Ruhephase eines Systems) gewährt nur der Abstand = Dichte > Dauer („Zeit") zum jeweiligen Attraktor innerhalb einer lokalen Menge/Hypermenge.
Ein Attraktor erscheint also als plötzlich wirkend unstabiler Zustand für (s)eine Fraktale ‚Ruhe-‚ Menge. Er wirkt auf diese stets chaotisch (emotional betrachtet aggressiv). Dieses wiederspricht real absolut dem postulierten ‚stabilen Zustand' eines Lorenz-Attraktors im geschlossenen Raum, da die realen Verhältnisse im formal offenen Hypersystem (Weltall) stets kausal übergreifend wirken. Alles gehört zusammen. Hier entlarvt sich wieder der Binärsystematisch geschlossen betrachtete Selbstbetrug. Somit ergibt dies real sogar unendlich viele Attraktoren in einem real indeterminierten Umfeld derzeitig vermeintlich determiniert lokaler Existenz. Es beeinflusst letztlich alle evolutionär determinierte Fraktalerscheinung.
Ein Sierpinski-Dreieck, Apfelmännchen, die Form des Blumenkohl oder sich lokal exponential reproduzierendes Leben etc. ist somit sekundäres Ergebnis in einer Ruhephase (>linear-determinierter Vorgang von kurzer Dauer nach rascher Anpassung) der jeweilig lokalen Menge, als jeweilig lokales wandelndes System, im sich bewegenden Hypersystem.
Eine Supernova, z.B. SN1054, SN185, SN1006, oder die Gammaquelle Centaurus A ...usw., hat somit lokal-primäre Wirkung (>nichtlinear-indederminierter Vorgang), je nach Impulsstärke.
Interessant dabei: Attraktoren entstanden anscheinend selbst aus einem Teil einer Menge lokal passiver Einheiten....
Was brachte ‚freie Ladungsträger' hervor? Welche ‚Musik' >Resonanz wirkt auf das Plasma? Was bringt den Menschen zum Denken? Ein religiöser Mensch würde sofort eine Antwort haben.
Doch ist eine Konsultation beim Papst wohl unbefriedigend, da die Frage nach dem Antrieb des Plasmas so lang unbeantwortbar im Hyperraum steht wie derselbe unendlich ist.
Denn alle Lust will Ewigkeit....
Bestand funktioniert nur in einer Dauer, diese Mechanik ist beschreibbar.
Veränderung dagegen operiert durch enorme Geschwindigkeit, diese ist nicht beschreibbar.
Frequenz = Plasma = Energie = Bewegung
Himmelherrgott was für eine Scheiße....
Re: Evolution
von wl01 am 16.03.2015 22:58@Alexander
Ich sehe daher in den theoretischen Möglichkeiten eines Quantencomputers eine große Affinität zu dem, was wir heute "Evolution" nennen. Zufall???
MfG
WL01
PS:
Habe ich schon geschrieben, dass Licht und somit jede EM-Strahlung für mich lediglich eine Turbulenz im Tachyonenäther ist?
Re: Evolution
von Rico am 16.03.2015 23:12Der perfekte Quantencomputer ist das All selbst. Es bedeutet der optimale Prozess ist ein optimiertes Try and Error Verfahren. Der Schlüssel ist die Geschwindigkeit.... doch die hat Onkel Albert ja begrenzt. Oder gibts da doch noch was anderes...? Das gemurkse was wir als Quantencomputer betiteln kann es bis dato jedenfalls nicht sein. Aber wer weiß was die in Cern tatsächlich ausbrüten.... Für die Allgemeinheit gibts nur Higgs, wacklige Stecker und Konsorten präsentiert.
Re: Evolution
von 1Alexander am 16.03.2015 23:32
Kurz vor dem schlafengehen was zum Nachdenken:
Spiegel-Online, 01.06.1998 Zehntausend stürzten ab
Ich kann nur hoffen, dass die Macher zu doof sind. Das Hollywood entsprechendes Gedankengut vorsorglich schon mal in die Hirne uploadet ist offensichtlich: Chappie
Re: Evolution
von wl01 am 17.03.2015 06:39@Alexander
Manche Theoretiker meinen ja ohnedies, dass das Gehirn nur ein jeweils besserer oder schlechterer Empfänger/Sender für einen übergeordneten BewußtseinCubus sei.
MfG
WL01
PS:
Habe ich schon geschrieben, dass Licht und somit jede EM-Strahlung für mich lediglich eine Turbulenz im Tachyonenäther ist?
Re: Evolution
von 1Alexander am 17.03.2015 08:11@Justin
Marshall McLuhan, Das Medium ist die Massage, Propaganda: Die Kunst der Public Relations
und das Buch was mich vom fernsehen abbrachte: Illusion und Manipulation: Die Wirkung von Film und Fernsehen auf Individuum und Gesellschaft. Das Unterbewußtsein macht keinen großen Unterschied zwischen einem Film und tatsächlichem Geschehen.
Leute akzeptieren Dinge, welche sie normalerweise ablehnen würden, wenn sie durch Medien bereits daran gewöhnt wurden.
Es wäre völlig naiv anzunehmen, dass diese Mechanismen nicht ausgenutzt werden. Hollywood mischt dabei ganz vorne mit.
Gesellschaftliche Entwicklungen werden in Filmen schon mal vorweggenommen und keineswegs nur aus visionären Motiven.
Re: Evolution
von 1Alexander am 17.03.2015 09:26nochmal zum Quantencomputer
@Justin
Um Daten aus Datennetzen auszulesen, selbst wenn dieser einfachster 1/0-Struktur sind, bedarf es eines höheren Verständnisses der Materie. Ich behaupte mal frech, der theoretisch/praktische Unterbau ist hierfür noch gar nicht verhanden. Gottseidank möchte ich meinen, sonst hätte wir die totale Totalüberwachung. Wenn der NSA sich riesige Gebäude baut, dann ist das ein gutes Zeichen dafür, dass sie gerade an ihrer eigenen Inkompetenz scheitern. Was nützen riesige Datenmengen, wenn diese nicht strukturiert und auslesbar sind. Oder ebend nur mit enormen Rechenaufwand und der Holzhammermethode. Bill Gates wird das Zitat zugeschrieben, mehr als 64k Hauptspeicher (MS-DOS) braucht kein Mensch. Und der Mann hatte recht! Mit 64K läßt sich bereits eine Menge veranstalten. Es ist die Ironie, dass gerade Gates mit Windows 3.0 ein System auf den Markt geschmissen hat, was im Grunde nichts konnte, außer bunt zu sein und Rechenleistung gefressen hat. Nun gut, man konnte Bildchen anschauen und Texte schreiben. Mit der objektorientierten Programmierung kam dann zu einem Produktvitätsgewinn in der Softwareerstellung um den Faktor 100. Vielleicht beträgt der Faktor heute sogar 1.000. Auf diese Weise kann man schnell was zusammenschustern und das wird auch ausgiebig getan. Mit Rechenleistungen und massig Speicher täuscht man sich hinweg, dass in den letzten 20 Jahren an den wirklichen Grundlagen nicht gearbeitet wurde. Der letzte Knüller war die AS/400 System i von 1986, was wiederum auf DB2 von 1970 basiert. Hierfür haben sich in den 60iger 10.000 fleißige IBM-Ingenieur den Kopf zerbrochen. Das gleiche betrifft den Bereich der DBS/DBMS, wo der Ofen seit 1989 aus ist, mit dem MSSQL-Server von Sybase/Microsoft. Danach kommt nur noch heiße Luft. Der ganze objektorientierte Datenbankquatsch hat alles nur noch verschlimmert. Der letzte Lichtblick war XML, aber auch das wurde versaut. Heute taugt es allenfalls zur Speicherung von Word-Dokumenten. Microsoft hat gigantische Projekte angeschoben umd dem Datenwirrwar Herr zu werden, welche dann regelmäßig in der Versenkung verschwunden sind und sich allesfalls in PowerPoint gut gemacht haben.
Und hierbei handelt es sich nur um das Handling von relationalen Datenbanken. Das Problem von Netzwerkstrukturen wurde dabei noch nicht mal angekratzt, obwohl es als böser Geist hinter jeder Anwendung schwebt.
Relationale Datenbank lassen sich grundsätzlich mit SQL prima bearbeiten, aber schon daran scheitert es. Das führt dann zu solchen Missgeburten wie SAP. Wo das Problem liegt kann jeder ausprobieren. Man probiere mal eine normaliserte Datenbankstruktur für unser schönes Bundesland/Postleitzahl/Stadt/Straßen-System zu erstellen und das vernünftig auf den Bildschirm zu bringen. Aber Vorsicht, es gibt keine klare Hierachie, was im Grunde auf eine Netzsystem erfordert. Aber eine vernünftige Struktur braucht heutzutage keiner, wir haben ja Rechenleistung.
Was ich damit sagen will, in Punkto Datenhaltung bewegen wir uns immer noch auf dem Niveau der 60iger/70iger/80iger Jahre. Heute tragen die Leute ihre Supercomputer in der Hosentasche und was machen sie, sie schreiben sinnlosen Quatsch und schauen sich bunte Bilder an. Das nenne ich mal ein Innovation.
Aber ich bin abgeschweift.
Ich vertrete die Auffassung, dass Quantencomputer nicht irgendwie zu denken anfangen. Das hat man von den Röhrenrechnern auch mal gedacht. Das ist völliger Blödsinn. Quantencomputer sind nur viel schneller. An den grundsätzlichen Problemen der Datenhaltung kommen auch Quantencomputer nicht vorbei.
Wie Du selbst sagts, das Problem ist das Auslesen von Daten. Ja irgendwas kann man immer auslesen. Allerdings gibt es eine Interaktionsschnittstelle. Die Daten müssen so ausgelesen werden, dass Aggregate an der Schnittstelle eine Sinn ergeben. Das ist das Problem.