Wohin geht die Computerentwicklung?
LeKuchen
- meinung
0 Cruz0 Daniel Thoma0 LeKuchen
0 Richard Rüfenacht
Hallo liebe Forumsinsassen,
ich habe mir gerade die Frage gestellt, wohin die Computerentwicklung momentan steuert und nach googlen noch keine befriedigende Antwort bekommen.
Was ich so verstanden habe:
Im Supercomputing scheinen sich große Cluster von Rechnern "handelsüblichen" Prozessoren etabliert zu haben (v.a. Opteron, Intel Itanium, PowerPC), die dann die Operationen größtenteils parallel ausführen.
Wie sieht es denn mit Entwicklungen wie Nanotransistoren bzw. Ein-Molekül-Transistoren oder mit Quantencomputern aus? Wo liegt die Zukunft? Gibt es denn neben Quantencomputern wirklich neue Ansätze was die Architektur betrifft?
Gruss
LeKuchen
Und was ist eigentlich mit Biocomputern mit gezüchteten biologischen Gehirnen?
Hallo Cruz,
Und was ist eigentlich mit Biocomputern mit gezüchteten biologischen Gehirnen?
Do feed the trolls:
Habe gehört, dass es davon schon viel zu viele gibt - und wenn die so fehlerhaft arbeiten wie Dein Biocomputer, dann gebe ich dieser Entwicklung keine Zukunftschancen...;o)
Gruss
LeKuchen
Hallo LeKuchen,
Es hängt ganz vom Anwendungsgebiet ab. Das Supergehirn eines Menschen schafft es noch nicht mal eine einfache Multiplikationstabelle von 0 bis 100 fehlerfrei und in annehmbarer Zeit auszurechnen. Dafür ist aber das Gehirn unschlagbar in Bilderkennung. Schaust du dir ein Photo an, weisst du sofort dass das ein Haus ist und dort steht ein Baum und so weiter. Das kriegen dann mechanische Prozessoren wiederum überhaupt nicht gebacken.
Wenn man beide techniken kombiniert, erhält man einen unschlagbaren Computer. Nur weiss man so gut wie gar nichts darüber wie ein Biogehirn funktioniert. Wie wird ein Baum überhaupt abgespeichert und wird ein Baum erkannt, wenn du einen siehst? Man tappt völlig im Dunkeln, daher weiss ich nicht wieso du meinst es gibt schon viel zu viele davon...
Gruß,
Cruz
Hallo Cruz,
Deine Ideen zur Computerentwicklung sind mir noch etwas zu weitreichend (Science-Fiction), aber nichtsdestotrotz ein interessantes Thema:
Es hängt ganz vom Anwendungsgebiet ab. Das Supergehirn eines Menschen schafft es noch nicht mal eine einfache Multiplikationstabelle von 0 bis 100 fehlerfrei und in annehmbarer Zeit auszurechnen.
Jein. Ich denke, dass das menschliche Gehirn für solche Aufgaben nur meist zu wenig trainiert wird. (Siehe Kopfrechnen-Weltmeisterschaften etc.) Aber grundsätzlich hast Du natürlich recht, Computer sind für "stupide" Rechenoperationen schneller.
Dafür ist aber das Gehirn unschlagbar in Bilderkennung. Schaust du dir ein Photo an, weisst du sofort dass das ein Haus ist und dort steht ein Baum und so weiter. Das kriegen dann mechanische Prozessoren wiederum überhaupt nicht gebacken.
Da gibt es ja schon einige Veröffentlichungen im Bereich der Medizin bzw. Philosophie, die versuchen, die Funktionsweise des Gehirns zu verstehen. (z.B. Das Gehirn und seine Wirklichkeit
von Gerhard Roth) Denn es wirft durchaus auch philosophische Fragen auf...Wie sehen wir das Haus? Sehen wir das gleiche Haus? Wirklichkeit und Realität....
Neben der Erkennung ist imho auch die selektive Warnehmung bzw. Informationsfilterung durch das Gehirn spannend.
Wenn man beide techniken kombiniert, erhält man einen unschlagbaren Computer.
Die Mensch-Maschine Schnittstelle ist auch schon vieldiskutiert. Aber: Wolltest Du Dich z.B. an einen Computer anschließen lassen, der alle Deine Erinnerungen auf einem Speichermedium ablegt und anderen zugänglich macht? Willst bestimmte Jobs aus Deinem Gehirn auslagern und einem Computer überlassen?
Nur weiss man so gut wie gar nichts darüber wie ein Biogehirn funktioniert. Wie wird ein Baum überhaupt abgespeichert und wird ein Baum erkannt, wenn du einen siehst?
Ein paar Sachen weiss man schon: z.B. welche Bereiche des Gehirns wofür verantwortlich sind. Ich meine auch mal gehört zu haben, dass bestimmte Amminosäurenmuster sozusagen Erinnerungen speichern.
Gruss
LeKuchen
Hallo LeKuchen,
Im Supercomputing scheinen sich große Cluster von Rechnern "handelsüblichen" Prozessoren etabliert zu haben (v.a. Opteron, Intel Itanium, PowerPC), die dann die Operationen größtenteils parallel ausführen.
Es werden auch immer mal wieder Vektorrechner gebaut. An der Uni-Stuttgart wurde da z.B. kürzlich einer in Betrieb genommen. Angeblich rechnet er zwar etwas langsamer, dafür aber deutlich billiger, d.h. er braucht einfach nicht so viel Strom für die selbe Rechenleistung.
Abgesehen davon hat ja IBM gerade diese Cell-Prozessoren mit Vektoreinheiten vorgestellt. Womit diese Technologie in "handelsübliche" Prozessoren kommt.
Ein-Molekül-Transistoren oder mit Quantencomputern aus? Wo liegt die Zukunft?
Die Zukunft von Quantencomputern liegt auf jeden Fall noch weit weg. Das rennen ob es zuerst Quantencomputer oder wirtschaftliche Fusionsreaktoren geben wird, bleibt spannend ;-) So weit ich weiß, gibt es nur für zwei Probleme Algorithmen für Quantencomputer, die schneller sind, als die Algorithmen für herkömmliche Computer und zwar für Faktorisierung und Suchen in ungeordneten Mengen.
Abgesehen davon ist noch nicht klar, ob man die Dinger überhaupt in vernünftiger Größe bauen kann.
Gibt es denn neben Quantencomputern wirklich neue Ansätze was die Architektur betrifft?
Was bezeichnest Du als "wirklich neu". Die oben angesprochenen Cell-Prozessoren haben eine neue Architektur. Das sind so die Entwicklungen, die abschätzbar sind.
Grüße
Daniel
Hallo Daniel,
Es werden auch immer mal wieder Vektorrechner gebaut.
Ja, die hatte ich vergessen. Sind im Earth Simulator nicht auch Vektorrechner eingesetzt? Den Stuttgarter Rechner habe ich in der TOP500-Liste gesehen...
Abgesehen davon hat ja IBM gerade diese Cell-Prozessoren mit Vektoreinheiten vorgestellt. Womit diese Technologie in "handelsübliche" Prozessoren kommt.
Stimmt, vom Cell-Prozessor hatte ich vor einem Jahr mal was in der c't gelesen....wusste nicht, dass das so eine wichtige neue Entwicklung wird.
Das sind so die Entwicklungen, die abschätzbar sind.
Das ist imho nicht viel. Dann wird die Leistung der Computer bald stagnieren?
Gruss & Danke für die Antwort
LeKuchen
Hallo LeKuchen,
Das ist imho nicht viel. Dann wird die Leistung der Computer bald stagnieren?
Nein, ich denke nicht. Die Rechner werden ja nicht in erster Linie durch fundamentale Entdeckungen schneller, sondern dadurch, dass man immer kleinere Schaltelemente und damit immer komplexere Schaltungen bauen kann. In diesem Bereich tut sich ja immer wieder etwas.
Die Leistungsverbesserungen durch einen Quantencomputer wären allerdings ganz anderer Art. Die ersten Quantencomputer wenn es sie denn gibt werden vermutlich viel langsamer addieren oder multiplizieren können, als ein herkömmlicher Rechner.
Der Unterschied ist, dass herkömmliche Rechner deterministisch Rechnen. Es gibt also in jedem Zustand genau einen Folgezustand. Bei nicht-deterministischem Rechnen kann es mehrere mögliche Folgezustände geben. Dadurch kann man Lösung quasi raten und braucht dann nur noch nachzuprüfen, ob es eine Lösung ist.
Bei einer Verbesserung herkömmlicher Rechner braucht man hinterher z.B. nur noch 1/100 der Zeit, weil man eben 100 mal so viele Operationen pro Sekunde ausführen kann.
Bei einem Quantenrechner kann man aber manche Probleme z.B. in nur in log(s) Schritten lösen.
Der besagte Algorithmus zur Faktorisierung einer Zahl arbeitet z.b. in O((log z)^3) wobei n die zu faktorisierende Zahl ist. also in O(n^3) wenn n die Anzahl der Stellen ist.
Alle bekannten Algorithmen für herkömmliche Rechner arbeiten dagegen in O(2^n). Einige sind etwas besser, für große Zahlen ist das Problem aber trozdem unlösbar.
O(f(x)) heißt, dass k * f(x) + c Schritte benötigt werden, wobei k und c beliebige Konstanten sind.
Grüße
Daniel
Hallo LeKuchen,
ich habe mir gerade die Frage gestellt, wohin die Computerentwicklung momentan steuert und nach googlen noch keine befriedigende Antwort bekommen.
du solltest andere Suchbegriffen verwenden wie Emergenz, Künstliche Intelligenz, Autonome Agenten und vor allem Neuronale Netze. Die liefern dir nicht eine direkte Antwort auf deine Fragen, zeigen aber Perspektiven auf. Hier ein paar Links:
http://www.aifb.uni-karlsruhe.de/Lehre/Winter2004-05/organic/themen?printer=true
http://www-users.rwth-aachen.de/gunter.heim/HTMLJeDi/index.htm
http://www-users.rwth-aachen.de/gunter.heim/HTMLJeDi/Sinniertes/zweck_text.htm
http://www-users.rwth-aachen.de/gunter.heim/index.htm
http://www.database-marketing.de/miningnnfunktion.htm
http://www.peshawar.ch/tech/rolf-pfeifer-interview.htm
Was ich so verstanden habe:
Im Supercomputing scheinen sich große Cluster von Rechnern "handelsüblichen" Prozessoren etabliert zu haben (v.a. Opteron, Intel Itanium, PowerPC), die dann die Operationen größtenteils parallel ausführen.
Ein Entwicklungszweig ist sicher die Rechenleistung und -geschwindigkeit zu steigern. Typisches Beispiel ist DeepBlue, der "Schachspieler". Dies ist aber eigentlich trivial und nicht wirklich zukunftsorientiert, Schach ist nicht besonders intelligent, auch wenn gewisse Leute dies meinen, es entspricht nur besonders gut der gängigen Vorstellung von Intelligenz. Und viel dumme Rechenleistung macht einen Computer auch nicht intelligent, zum Schachspielen mag das reichen, für das wirkliche Leben taugt es wenig.
Wie sieht es denn mit Entwicklungen wie Nanotransistoren bzw. Ein-Molekül-Transistoren oder mit Quantencomputern aus?
Darauf hat dir Daniel ja schon sehr kompetent geantwortet.
Wo liegt die Zukunft? Gibt es denn neben Quantencomputern wirklich neue Ansätze was die Architektur betrifft?
Es wird aus unterschiedlichen Gründen notwendig sein, den Computer neu zu definieren. Nach SEARL wird künftig wohl besser von intelligenten Systemen gesprochen. Die jetzige triviale Maschine würde dann durch ein Netz spezialisierter autonomer Agenten ersetzt, die lernfähig sind. Dazu werden künstliche Neuronale Netze kommen, die neben anderem auch den von Daniel beschriebenen Rechenvorteil der Quantencomputer bieten und nicht deterministisch sind.
Die künftigen Fragen dürften weniger technischer Art sein. Ob die Dinger noch schneller arbeiten ist für spezielle Anwendungen vielleicht wichtig, nicht aber für die tägliche Nutzung. Wir müssen besser lernen, mit solchen intelligenten Systemen umzugehen. Heute werden noch 5% der so genannten Computerchip tatsächlich in PCs eingesetzt. Veraltete Vehikel wie das Auto oder die Eisenbahn werden mit Mikroelektronik und Software fahrtauglich gemacht, ohne bewegen die sich schon gar nicht mehr. Kein Manager kann ohne Computer noch irgend eine Entscheidung treffen. Ohne Computer gäbe es nirgends mehr einen Staubsauger zu kaufen. Trotzdem bilden wir uns immer noch ein, wir würden selber denken und die Kisten wären lediglich nützliche Werkzeuge.
Beste Grüsse
Richard