PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Bill Gates: Das leisten PCs 2006



Seiten : [1] 2

Catonga
29.10.03, 03:03
Laut Microsoft-Mitbegründer Bill Gates werden PCs 2006 in etwa so ausgestattet sein:

* CPU mit 4 bis 6 GHz
* 2 GByte und mehr Arbeitsspeicher
* 1-Terabyte-Festplatte
* Grafikkarten mit 3 x mehr Leistung als heute
* 1 GByte Ethernet, 54Mbps-Wireless-Netzwerk-Anbindung

Quelle: http://www.gamestar.de/news/hardware/14246/


Meine Frage an euch, wie ist eure Schätzung, wie wird ein PC im Jahre 2006 ausgestattet sein?
Als festen Zeitpunkt nehmen wir mal die Mitte 2006, also am 1 Juli 2006.



Ich würde schätzen, das ein "privater" Desktoprechner folgende Ausstattung haben dürfte:

CPU AMD 3 - 4 GHz
CPU Intel 4-5 GHz
1-2 GByte Arbeitsspeicher.
500 GByte Festplatte
Grafikkarte mit 3,5x mehr Leistung als heute
weiterhin 100 MBit Ethernet, 54 Mbps-Wireless-Netzwerk-Anbindung.


Wenn es dann soweit ist, dann können wir vergleichen wer am besten geschätzt hat,
also am nähsten an dem erreichten realen Wert ist.

Aproxx
29.10.03, 05:16
Ich denke, dass sich die nächsten Jahre nicht so viel an der CPU Taktung ändern wird, aber sehr viel am FSB. Ich hoffe, dass bald die MRAM's (magnetische) kommen. Diese RAM's können im Betrieb logische Schaltungen wie sie auch in der CPU vorhanden sind, nachbilden. Arbeitsspeicher schätz ich mal so 4 bis 8 GB, es gibt ja schon heute viele 2GB Systeme. Außerdem denke ich (nein, ich hoffe) das sich Dual oder vielleicht sogar Quad Systeme durchsetzen werden.
Mfg,
Alex

HEMIcuda
29.10.03, 06:03
Laut Microsoft-Mitbegründer Bill Gates werden PCs 2006 in etwa so ausgestattet sein:

* CPU mit 4 bis 6 GHz
* 2 GByte und mehr Arbeitsspeicher
* 1-Terabyte-Festplatte
* Grafikkarten mit 3 x mehr Leistung als heute
* 1 GByte Ethernet, 54Mbps-Wireless-Netzwerk-Anbindung


Wow, der Mann ist ja ein richtig helles Koepfchen, ein richtiger Visionaer :rolleyes:
Waere mal schoen, wenn der auch mal was sinnvolles von sich geben koennte
als nur eine Extrapolation der PC-Entwicklung. Aber das sind wir ja von ihm gewohnt.
Nichts als Blasen, Blasen, Blasen. Vor allem frage ich mich: Ist der Effekt wirklich
spuerbar? Sind die Rechner 2006 mit Windows 2006 wirklich so viel schneller wie
es die reinen Daten vermuten lassen? Ich glaube, wir alle kennen die Antwort.
Ich denke, dass auch weiterhin fuer den Otto-Normalverbraucher ein PC der 1GHz-
Klasse mehr als ausreichend sein wird.
Was Billy Boy natuerlich vergessen hat zu erwaehnen, ist, dass die CPUs dann
magere 150 - 200W ziehen, die Graphikkarten mit viel gutem Willen knapp drunter
bleiben und man dann endlich ein 1kW-Netzteil braucht.
Diese Entwicklung macht mich krank! Wann werden endlich mal sinnvolle PCs
gebaut?

@Aproxx: Was bringt ein schnellerer FSB, wenn ihn die CPU nicht saettigen kann?
Ausserdem ging es beim RAM um Durchschnittswerte. Und 2GB gehoeren auch
heute noch zur Ausnahme. Der Durchschnitt duerfte bei 300 - 400 MB liegen.
Deine Daten duerften vielleicht fuer den gelten, der unbedingt das neueste und
"beste" System haben will.

@Catonga: Deine Prophezeiung ist auch nicht sooo viel anders als die von dem
Herrn Gates. Die einzigen nennenswerten Unterschiede sind Ethernet (das
mit Sicherheit auf 1GBit aufgestockt werden wird. Schau Dir die aktuellen Boards
an) und die Festplattengroesse. Die anderen Daten sind einfach mal zu aehnlich

'cuda

Liberace
29.10.03, 06:20
In nur 3 Jahren soll der Stand erreicht sein? Ich bezweifel das...
Vor 4 Jahren habe ich meinen Duron 600 (inlusive dem ganzen Rest) gekauft und er reicht heute noch (Bin sogar noch sehr zufrieden).
Software sollte lieber effektiver programmiert werden und nicht immer verschwenderischer mit den Ressourcen umgehen, dazu kommt die Entwicklung HEMIcuda beschreibt, es ist einfach krank ohne ein wirklich neues Chipdesign (winke, winke x86) die Prozessoren immer hoeher zu takten, denn damit werden sie natuerlich auch wesentlich Energiehungriger. Wie stellt sich Gates die Netztteile von 2006 vor? Warum sagt er nichts dazu? Brauch man vielelicht dann ein 1000 Watt Netztteil, dann sollte man allerdings aufpassen dass man seine Rechner nicht alle zur gleichen Zeit anschaltet, sonst fliegt die Sicherung raus. :D

Gruss
Liberace

Nvidia
29.10.03, 08:29
wird am netzwerk die nächsten 3 jahre nichts mehr entwickelt ?

in meinem desktop pc steckt bereits eine gigabit lan karte
und netgear vertreibt mittlerweile schon 108 mbps wireless karten ..

wo lebt dieser "bill" blos ..


:confused:

HEMIcuda
29.10.03, 08:36
Original geschrieben von Nvidia

wo lebt dieser "bill" blos ..


:confused:

In seiner eigenen Traumwelt.
Bill Gates a.k.a. "The Brain" & Steve Ballmer a.k.a. "Pinky"

'cuda

ThaRealMatix
29.10.03, 08:39
vielleicht unterstützen seine Microsoft Produkte einfach nicht emhr als 1Gb Lan und 54 Mbps WLan.... dann kauft auch die breite masse nix höherwertiges... :D

Stefan_1
29.10.03, 08:49
Ich glaube das es in etwa hinkommen könnte.. natürlich gibt es bereit’s 1GB Netzwerkkarten.. 2GB-Ram..
Sicher bis dahin hat sich 10 GByte Ethernet bzw. LWL durchgesetzt. Aber im Home PC wird nicht mehr als 1 GByte Ethernet verbaut sein!
Warum denn auch? Glaubst du das die Telekom bis in drei Jahren alle Häuser 10Gbyte/LWL Netzwerk verbunden hat?

FSB wird sicher auch noch mal einen riesen schritt machen, die einzelnen Komponenten (Graphik, Netzwerk, Sound, IDE... ) werden sicherlich auch der CPU Rechenleistung abnehmen (daher CPU auch „nur“ 4-6 GHz ist ja nur das doppelte von heute..) .

Das sich bis 2006 eine ganz neue Technologie durchgesetzt hat glaube ich auch nicht..

Stefan

holgerw
29.10.03, 09:02
Was Billy Boy natuerlich vergessen hat zu erwaehnen, ist, dass die CPUs dann magere 150 - 200W ziehen, die Graphikkarten mit viel gutem Willen knapp drunter bleiben und man dann endlich ein 1kW-Netzteil braucht.
Diese Entwicklung macht mich krank! Wann werden endlich mal sinnvolle PCs
gebaut?

@HEMIcuda:
Energiesparen und eine Frage nach Sinn beim PC Bau...
Wie kannst Du den Kopf eines amerikanischen Megamonopolisten nur mit so zwei schweren Aspekten überfordern?

Strom? Muss man den sparen? Kommt der nicht einfach so aus der Dose? Und werden Sinnfragen nicht in der Kirche behandelt? ;)

Aber leider ist hier auch ein Trend bei selbst renomierten PC Zeitschriften festzustellen. Das Kapitel "Prozessorengeflüster" überblättere ich mittlerweile meistens. Leistung wird ganz groß thematisiert, das Thema "Sparsamkeit" taucht allenfalls quasi als Randnotiz das eine oder andere Mal auf. Immerhin gab es letztens etwas positives über Transmeta zu lesen.

LX-Ben
29.10.03, 09:23
Und hier noch eine Gates-Prognose (aus 1983), was heutzutage total
verzerrt ins Bild gesetzt wird: :)

*Niemand braucht mehr als 640 k RAM*

Heute gesehen ist diese Aussage ein Witz. Aber was dabei außer Acht
gelassen wird: Gates war damals Programmierer. Und jeder Programmierer
war damals (DOS) bestrebt, dass seine Programme mit möglichst wenig
Speicher auskamen.

Quelle: http://www.google.de/search?q=cache:AunXyNQp-OMJ:selfforum.teamone.de/archiv/2003/10/59127/+gates+AND+640+AND+ram&hl=de&lr=lang_de&ie=UTF-8
---
Andere Zitate:

Bill Gates, 1983: Nobody will ever need more than 640 kB RAM.
Bill Gates, 2001: Windows XP requires 64 MB RAM.
Nobody will ever need Windows XP -- logical conclusion.

Quelle: http://www.google.de/search?q=cache:ATThZmRkTcwJ:lists.debian.org/debian-user-de/2002/debian-user-de-200201/msg00111.html+gates+AND+640+AND+ram&hl=de&lr=lang_de&ie=UTF-8

HEMIcuda
29.10.03, 09:33
Original geschrieben von holgerw
@HEMIcuda:
Energiesparen und eine Frage nach Sinn beim PC Bau...
Wie kannst Du den Kopf eines amerikanischen Megamonopolisten nur mit so zwei schweren Aspekten überfordern?

Strom? Muss man den sparen? Kommt der nicht einfach so aus der Dose? Und werden Sinnfragen nicht in der Kirche behandelt? ;)

Aber leider ist hier auch ein Trend bei selbst renomierten PC Zeitschriften festzustellen. Das Kapitel "Prozessorengeflüster" überblättere ich mittlerweile meistens. Leistung wird ganz groß thematisiert, das Thema "Sparsamkeit" taucht allenfalls quasi als Randnotiz das eine oder andere Mal auf. Immerhin gab es letztens etwas positives über Transmeta zu lesen.

Traurig traurig, aber leider wahr. Ich hoffe mal, dass sich auch im Zuge von TCPA, Palladium und Co.
die asiatischen Chipfabrikanten mal dazu entschliessen, vernuenftige CPUs zu designen. VIA ist ja
mit dem C3 schon fast auf dem richtigen Weg. Jetzt muss nur noch die FPU-Performance ein bisschen
verbessert werden und u.U. ein etwas groesserer L2-Cache rein.
Ich bin auch mal gespannt, wie sich der chinesische MIPS-Clone entwickelt. Das erscheint mir auch
als ein ziemlich interessantes Projekt.
Was das deutsche Vorzeigemagazin fuer Computer'Technik betrifft, ganz besonders das Prozessor-
gefluester: Mir deucht, das der gute Herr Stiller eine ziemliche Busenfreundschaft mit Intel's Pat
Gelsinger hegt. Die Berichte sind halt wirklich extrem intellastig und das, was Intel verziehen wird,
wird anderen CPU-Herstellern angekreidet und andersrum. Das finde ich auch sehr schade.
Interessant ist auch, wie mit alternativen CPUs umgegangen wird: Sie werden mal kurz angekuendigt,
dann wieder voellig ignoriert und nach dem Ableben wird ihnen mit einer Traene im Auge nachgewunken,
siehe z.B. Alpha: Zu Lebzeiten voellig ignoriert, ja totgeschwiegen, aber nach der Abkuendigung wird
sie wieder als ueberlegener Prozessor betitelt, um den es ja eigentlich doch ziemlich schade ist, der das
Potential hatte, innovativ war, und blablabla.
Andererseits wage ich zu behaupten, dass es kein anderes Blatt gibt, das so umfassend die Aspekte
der Computerwelt ausleuchtet (wenn doch, dann kuendige ich mein Abo und steige um ;)).

So long,

'cuda

Columbo0815
29.10.03, 10:01
Hi,

ich glaube mal gelesen zu haben (finde jetzt aber keine Quelle dazu), dass es derzeit rein technisch nicht möglich ist, CPUs zu bauen, die eine Takt-Frequenz von über 4 Ghz haben...

Wenn dem so wäre, wie will Bill dann einen 6 Ghz-CPU besitzen (werden)? Oder baut er in Windows XXLP einen "Software-CPU-Booster" ein? :D :ugly:

Gruß Columbo

Stefan_1
29.10.03, 10:09
WeEs wird auf jeden Fall ne Steigerung über 4 GHz geben!
Entweder neue Technik oder neu Triks..
z.B.: „Dualprozessor“ innerhalb eines Gehäuses oder sonst sowas..

Mal sehen..

Stefan

Inside
29.10.03, 11:15
Also ich denke die x86 Architektur wird 2006 anfangen vom Markt zu verschwinden um durch effizentere Desings ersetzt werden. Ich vermute mal 2006 werden die Spitzenmodelle wieder mit gemütlichen 800-1500 Mhz laufen.

Flightbase
29.10.03, 11:19
ich halte die werte für ziemlich realistisch.
bei den cpu`s bin ich etwas verunsichert. ich glaube, dass irgendwann auch der letzte "ghz-prollo" merkt, dass ghz nicht alles ist.
wer mal von nem p3 800 auf einen celeron 2,4 ghz umgestiegen ist, wird sich seeehr blad seine alte cpu zurückwünschen. die opteron beweisen auch, dass "leistung" nicht nur aus wahnsinnig hohen taktraten kommt.
mein tipp für 2006:
3 ghz, 1,5 mb cache.
auch werden wohl einige auf dualsysteme umsteigen.... ich zum beispiel ^^
das wird billi natürlich nur ungerne glauben wollen, wo enduser doch garkeine dual systeme brauchen...

ich für meinen teil werde als nächstes system nen dual opteron 1,8ghz und 2gb ram kaufen. trotz der ächtenden worte meines kumpels: "bist du blöd? du hast doch jetzt nen XP2800+ - der hat viel mehr ghz. wer kauft heutzutage noch einen 1,8ghz prozessor?"

greets, Nik - der drehmoment besser findet als drehzahl.

HEMIcuda
29.10.03, 11:25
Original geschrieben von Inside
Also ich denke die x86 Architektur wird 2006 anfangen vom Markt zu verschwinden um durch effizentere Desings ersetzt werden. Ich vermute mal 2006 werden die Spitzenmodelle wieder mit gemütlichen 800-1500 Mhz laufen.

Das Problem ist leider, dass Systeme, die bei gemuetlichen 800-1500 MHz laufen und eine aehnliche
Leistung wie aktuelle AMD oder Intel-Prozessoren der 2,5+GHz-Klasse haben, dieses durch ein recht
brachiales Prozessordesign erlangen, wie z.B. grosse Caches (bis zu 9MB bei Itanium, bis zu 16 bei
Alphas,...) und von daher keine Kostveraechter sind: Hier sind 130 Watt eher die Regel als die Aus-
nahme.
Es sollte langsam mal in die Koepfe der Leute zurueckkehren, dass man fuer Alltagsarbeiten keine
5000000000Hz braucht. Ausserdem waere es mal richtig clever, vernuenftiges Powermanagement
und Speed-Throttling in Desktop-CPUs einzubauen (den Rest des Systems darf man dabei natuerlich
nicht vergessen). Ausserdem muss endlich mal jemand mit dem Vorurteil aufraeumen, dass man alle
18 Monate einen neuen Rechner braucht. In der Energiebilanz macht naemlich die Produktion der
Hardware mehr aus als der Betrieb => Regelmaessig neue Rechner kaufen ist umweltschaedlich ohne
Ende, egal wie stromsparend der Rechner ist.

'cuda

xare
29.10.03, 11:58
Original geschrieben von Liberace

Software sollte lieber effektiver programmiert werden und nicht immer verschwenderischer mit den Ressourcen umgehen...

Warum? Weil du einen alten Computer hast, sollen die Entwickler wieder Assembler verwenden?

Laufzeit ist nicht das einzige softwaretechnische Kriterium. Da gibts noch Entwicklungszeit, Wartbarkeit, Robustheit, Änderbarkeit, Korrektheit, Zuverlässigkeit, Wiederverwendbarkeit.

MfG Xare

Weezle357
29.10.03, 12:02
Die Prognosen sind wahrscheinlich realistisch, bis auf die Netzwerkinfos. Nur 54Mbps WLAN? Ich denke, da wird sich noch was tun. Ich hoffe auch, dass ich nicht jedes halbe Jahr einen neuen Rechner kaufen muss. Und wenn, dann wieder Mittelklasse (Das Preis/Leistungs Verhältnis aktueller high-end Hardware ist ja wohl jenseits von Gut und Böse).

Zu der Multi-Prozessor Variante: Die ist für Privatanwender zu teuer und lohnt sich erst, wenn man beim CPU Takt an Physikalische Grenzen stößt.

HEMIcuda
29.10.03, 12:16
Original geschrieben von Weezle357

Zu der Multi-Prozessor Variante: Die ist für Privatanwender zu teuer und lohnt sich erst, wenn man beim CPU Takt an Physikalische Grenzen stößt.

... an die man so allmaehlich stoesst. Was glaubst Du, warum IBM, SUN und Intel mit MP-Cores
experimentieren?

Was effektives Programmieren angeht: Was ist denn das fuer eine Begruendung dass, nur weil
man "genuegend" Rechenleistung verfuegbar hat, man verschwenderisch programmieren kann?
Das Argument zieht in meinen Augen nicht und ist nur dazu da, den Umsatz aufrecht zu erhalten.
Das zeigt auch die Vergangenheit: Die Produktivitaet ist trotz schnellerer Rechner kaum gestiegen,
weil die Software wunderbar auch die letzten Reserven des Systems mit unnoetigen Gimmicks zu
verschwenden weiss.

'cuda

xare
29.10.03, 12:43
Original geschrieben von HEMIcuda
... an die man so allmaehlich stoesst. Was glaubst Du, warum IBM, SUN und Intel mit MP-Cores
experimentieren?

Was effektives Programmieren angeht: Was ist denn das fuer eine Begruendung dass, nur weil
man "genuegend" Rechenleistung verfuegbar hat, man verschwenderisch programmieren kann?
Das Argument zieht in meinen Augen nicht und ist nur dazu da, den Umsatz aufrecht zu erhalten.
Das zeigt auch die Vergangenheit: Die Produktivitaet ist trotz schnellerer Rechner kaum gestiegen,
weil die Software wunderbar auch die letzten Reserven des Systems mit unnoetigen Gimmicks zu
verschwenden weiss.

'cuda

Quatsch. Warum sollen die Entwicklungskosten verdoppelt werden, nur damit man 10 MB Hauptspeicher weniger braucht?

Natürlich kommts auch darauf an, was man gerade programmiert, aber die meisten Programme sind nicht zeitkritisch, also ist gutes Design wichtiger.

Und die Produktivität ist kaum gestiegen? Dann ist es das beste, du nimmst einen aktuellen Rechner und haust ein Uralt-Linux drauf, dann hast du Effizienz pur. ;) Wenn du mit den alten Anwendungen produktiv arbeiten kannst...

MfG Xare

PS: Zitat von Donald Knuth:

You're bound to be unhappy if you optimize everything.

stefan-tiger
29.10.03, 13:05
ob gates damit recht hat und wie er jetzt darauf kommt ist mir eigentlich egal, aber ich denke es ist so zu verstehen:

"hallo ihr spiele firmen und spiele-abteilungen bei microsoft: wenn ihr nächstesjahr ein neues projekt startete (das dann ca. 2 jahre später fertig ist) dann macht euch mal um die rechnergeschwindigkeit keine sorgen sondern programmiert ruhig viel ohne zu optimieren. natürlich in directx. ihr sollt nix optimieren an eurem code da schnellere rechner sowieso kommen"


durch heutige programmierung (besonders in directx) wird teilweise dermasen overhead erzeugt die die hardware verarbeiten muss. dadurch werden die programme langsamer aber man braucht weniger know-how um was "hübsches" zu programmieren.

aber natürlich wird gates nie auf die idee kommen mal code so zu optimieren dass man neue features nicht durch pure hardware-performance ausgleichen muss.

wer den film "ein leben nach microsoft" gesehen hat weiss was ich mein.

gruß

HEMIcuda
29.10.03, 13:12
Original geschrieben von xare
Quatsch. Warum sollen die Entwicklungskosten verdoppelt werden, nur damit man 10 MB Hauptspeicher weniger braucht?


Deine Meinung. Deswegen muessen andere Meinungen noch lange nicht Quatsch sein. Und ich denke
nicht, dass wir hier nur von 10MBytes sprechen.


Natürlich kommts auch darauf an, was man gerade programmiert, aber die meisten Programme sind nicht zeitkritisch, also ist gutes Design wichtiger.

Und die Produktivität ist kaum gestiegen? Dann ist es das beste, du nimmst einen aktuellen Rechner und haust ein Uralt-Linux drauf, dann hast du Effizienz pur. ;) Wenn du mit den alten Anwendungen produktiv arbeiten kannst...

Es gibt auch andere Sachen als Linux. Fuer Office-Anwendungen reicht auch ein 486er mit DOS/Win3.11
und nem alten Office-Paket. Wenn es tut, warum umsteigen? Nur weil man's kann und damit man's hat?
Das ist Quatsch.

'cuda

taylor
29.10.03, 13:28
Original geschrieben von Flightbase
greets, Nik - der drehmoment besser findet als drehzahl.
Schön gesagt. :)

stefan-tiger
29.10.03, 13:34
Original geschrieben von taylor
Schön gesagt. :)

find dichnicht:

1. schonmal nen alten (nicht turbo) diesel gefahren? der hat drehmoment aber... *würg*

2. schonmal motorrad gefahren? :D

gruß

HEMIcuda
29.10.03, 13:36
Original geschrieben von stefan-tiger
find dichnicht:

1. schonmal nen alten (nicht turbo) diesel gefahren? der hat drehmoment aber... *würg*

2. schonmal motorrad gefahren? :D

gruß

Schonmal aus dem Standgas ne 'busa abgekocht? www.weineck-power.de :D

'cuda

oster
29.10.03, 13:49
Jetzt schon etwas zu spät, aber zu der Aussage weiter oben:

Es ist technisch nicht möglich, mehr als 4 GHz...
fällt mir ein alter Artikel in einer C64er ein, den ich vor Jahren mal gelesen habe. Darin ging es um RISC-Prozessoren, Virtual Reality usw., da stand drin:
"Es ist technisch unmöglich, Prozessoren mit mehr als mit 150 MHz Taktfrequenz zu bauen"...
nagelt mich jetzt nicht mehr auf die genaue Aussage fest, aber DARAN kann ich mich noch sehr gut erinnern.
Allerdings kommen heutige Prozessoren immer näher an das Quantenregime heran, und da herrschen völlig andere physikalische Verhältnisse als im Makrokosmos, an den wir gewöhnt sind und in dessen Grenzen heutige Prozessoren immer noch arbeiten.
Man wird wohl völlig neue technische Verfahren benötigen, um die Taktrate noch erheblich zu steigern.

Flying_Eagle
29.10.03, 13:51
Original geschrieben von holgerw
@HEMIcuda:
Energiesparen und eine Frage nach Sinn beim PC Bau...
Wie kannst Du den Kopf eines amerikanischen Megamonopolisten nur mit so zwei schweren Aspekten überfordern?

Hier muss ich BIll Gates aber mal in Schutz nehmen. Er ist an der Spitze eines _Software_unternehmens. Egal wie man MS-Produkte findet, kann man ihn nicht dafuer anklagen, dass der PC soviel Strom verbraucht.
Zumindest nicht grundsaetzlich, denn hergestellt werden die Chips immer noch von Intel, AMD oder Pringles ;)
Und was die kreieren, kann er nur indirekt beeinflussen.

connor macleod
29.10.03, 13:51
Hi,
jeder sollte selbst entscheiden, was für ihn richtig ist.

Wenn ein Bill Gates seine "Prophezeiungen" von sich gibt, ist das Signal an Kunden und Hardware-Hersteller: Microsoft geht von dieser Prognose aus und entwickelt im Hinblick auf diese die zu vermarktende Software.

Schon seit einiger Zeit spielen viele dieses Höherschrauben nicht mehr mit und verschrotten ihre Rechner erst nach langer Nutzungsdauer, weil das, was ein älterer rechner kann, vollkommen ausreicht.

Trotzdem ist die Richtung vorgegeben: Anwendungen für z.B. Multimedia (Foto, Video etc.) werden immer mehr Ressourcen benötigen und somit auch schnellere Hardware. Wer's braucht, oder meint, es zu brauchen, wird's sich auch zulegen.

Ciao!
Connor

stefan-tiger
29.10.03, 13:53
Original geschrieben von HEMIcuda
Schonmal aus dem Standgas ne 'busa abgekocht? www.weineck-power.de :D

'cuda

naja, da ich in der nähe von weissach wohn bin ich eher posche gewöhnt und zwei die dort arbeiten wohnen auch noch in meiner strasse :-D

ich kenn die anderen nobel-sportwagen nicht so.

aber eins ist für mich sicher: dieses auto kann alles

http://www3.porsche.de/german/deu/carreragt/modelinformation/technicalspecifications/default.htm

:-D

HEMIcuda
29.10.03, 14:14
Original geschrieben von stefan-tiger
naja, da ich in der nähe von weissach wohn bin ich eher posche gewöhnt und zwei die dort arbeiten wohnen auch noch in meiner strasse :-D

ich kenn die anderen nobel-sportwagen nicht so.

aber eins ist für mich sicher: dieses auto kann alles

http://www3.porsche.de/german/deu/carreragt/modelinformation/technicalspecifications/default.htm

:-D

Was heisst fuer Dich "Alles koennen"? Ein Grosseinkauf geht damit nicht ;)
Vom Preis-/Leistungsverhaeltnis ist die C. auch ein bisschen besser
(650PS fuer 143000EUR ist eigentlich unschlagbar :D) und 1500PS koennen
die bei Porsche auch nicht liefern :p.

'cuda

P.S: Wofuer? Zum einen weil man's kann. Zum anderen fuer's Hobby. Das Auto ist nicht
fuer den Alltag oder fuer die gewoehnliche Strasse gedacht (trotz Strassenzulassung).
Jede Diskussion ueber den Sinn und Unsinn dieses Boliden ist sinnlos (ich frag ja auch
nicht, wofuer Ihr einen Dual P-IV mit 4GB RAM, einer 256MB-GraKa und 1,x TB HDD
zuhause braucht :p)