PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NVidia Pressemitteilung zum 3DMark05


Bockwurst.com
2004-09-30, 08:28:14
SANTA CLARA, CA?SEPTEMBER 29, 2004?NVIDIA Corporation (Nasdaq: NVDA), a worldwide leader in graphics and digital media processors, today announced that the Company has set the bar for 3dMark?05, the latest PC performance benchmark from Futuremark® Corporation. In benchmark tests performed by NVIDIA using 3dMark05, the NVIDIA® GeForce? 6800 Ultra SLI? achieved an industry high-score of 7229¹.

?These results validate that the NVIDIA GeForce 6 Series of GPUs is a gamer?s dream, and delivers the cutting edge technology that enthusiasts demand,? said Ujesh Desai, general manager for desktop GPUs at NVIDIA. ?We believe the NVIDIA SLI-multi-GPU technology is the must have feature for performance PCI Express graphics.?

http://www.nvidia.com/object/IO_16083.html

Kommentar: wenigstens ein Produkt, das derzeit vorzeigbar ist......(wenn man denn gleich 2 davon nimmt...)

Inquisitor
2004-09-30, 10:03:52
heißt das, zwei 6800u haben im sli nur 7229 punkte erreicht? da hätte ich mehr erwartet...

ironMonkey
2004-09-30, 10:12:59
Ja schaut so aus, ist echt n bissl mager, das sind ca.50% mehr Leistung....

Kann aber sein das es sich bei Spielen noch ändert.


Gruß

Gast
2004-09-30, 10:28:43
da wird sich nach oben nix ändern. +50% ist das maximale was man aus der technologie rausholen kann. hat man damals auch schon zu voodoo zeiten gesehen;)

Gast
2004-09-30, 10:39:41
da wird sich nach oben nix ändern. +50% ist das maximale was man aus der technologie rausholen kann. hat man damals auch schon zu voodoo zeiten gesehen;)

NVs SLI ist effizienter als Voodoo SLI.

Radeonator
2004-09-30, 10:52:32
Also eigentlich sind 50% schon in Ordnung. Die meisten Lösungen gewannen damals eher weniger.

Bis 80% sollten aber drin sein, je nach Situation und die Technologie ist ja vergleichsweise jung implementiert. Ergo auf neue Treiber warten. Leider werden dann natürlich die üblichen Optimierungen stattfinden...who cares, eh nur nen Synthetic Bench ;)

r@w
2004-09-30, 10:55:56
Jo... 70-80% sollten da schon drin sein.
Dürfte allerdings ganz erheblich von der Applikation abhängen...
(bzw. deren Anforderung an die Hardware)

Es ist ja so, dass sich nVidias SLI-Variante die Arbeit nicht zeilenweise teilt, sondern jeweils Bildschirmhälften bzw. Frame-Hälften bearbeiten läßt. Ist also der eine Bildschirmteil besonders aufwändig, dann idlet die eine GraKa solange, bis die andere 'fertig' ist.

Razor

Demirug
2004-09-30, 11:00:32
Jo... 70-80% sollten da schon drin sein.
Dürfte allerdings ganz erheblich von der Applikation abhängen...
(bzw. deren Anforderung an die Hardware)

Es ist ja so, dass sich nVidias SLI-Variante die Arbeit nicht zeilenweise teilt, sondern jeweils Bildschirmhälften bzw. Frame-Hälften bearbeiten läßt. Ist also der eine Bildschirmteil besonders aufwändig, dann idlet die eine GraKa solange, bis die andere 'fertig' ist.

Razor

Alternativ kann NV SLI auch AFR benutzten und damit kann man sogar 100% erreichen. Allerdings muss dafür die Applikation AFR Freundlich sein. Bei den neuen Treibern ist bezüglich dem SLI Verfahren für den 3dmark was voreingestellt.

Was man allerdings nicht vergessen darf ist das SLI auch die CPU-Last erhöht denn immerhin muss die CPU jetzt auch viel mehr Daten schaufeln. Sobald man also CPU limitiert ist bringt SLI nichts mehr.

Inquisitor
2004-09-30, 11:05:47
Aber kann es sein, dass der p 3,4ee mit dem nvidia getestet hat, schon bei den 7,2k Punkten am ende ist, wenn vorher nur und einzig allein die Karte ausschlaggebend ist?

Mr. Lolman
2004-09-30, 11:53:29
da wird sich nach oben nix ändern. +50% ist das maximale was man aus der technologie rausholen kann. hat man damals auch schon zu voodoo zeiten gesehen;)

Blödsinn. In gewissen Situationen brachte das Voodoo SLI ~100% Mehrleistung (V1*,V2,V5)

*Bei der Voodoo Graphics wars AFAIK nur mit einem betatreiber möglich die Karten im SLI zu betreiben.

NVs SLI ist effizienter als Voodoo SLI.

Is auch falsch...

Aber kann es sein, dass der p 3,4ee mit dem nvidia getestet hat, schon bei den 7,2k Punkten am ende ist, wenn vorher nur und einzig allein die Karte ausschlaggebend ist?

AFAIK nein, weil ein PIV/2.4 genausoviel Punkte wie ein 3.4 bringt...

wuschel12
2004-09-30, 13:04:28
Alternativ kann NV SLI auch AFR benutzten und damit kann man sogar 100% erreichen. Allerdings muss dafür die Applikation AFR Freundlich sein. Bei den neuen Treibern ist bezüglich dem SLI Verfahren für den 3dmark was voreingestellt.

Was man allerdings nicht vergessen darf ist das SLI auch die CPU-Last erhöht denn immerhin muss die CPU jetzt auch viel mehr Daten schaufeln. Sobald man also CPU limitiert ist bringt SLI nichts mehr.

Also lohnt sich eigentlich SLI nur auf einem Dual-(CPU)-Board?

r@w
2004-09-30, 13:16:24
Blödsinn. In gewissen Situationen brachte das Voodoo SLI ~100% Mehrleistung (V1*,V2,V5)
*Bei der Voodoo Graphics wars AFAIK nur mit einem betatreiber möglich die Karten im SLI zu betreiben.Wus?
Wohl eher in sehr 'speziellen', nicht praxis-relevanten, non-RealWorld 'Situationen'...
Ich erinnere mich noch an ca. 40-50% Mehrleistung und das war's dann auch schon.

Razor

reunion
2004-09-30, 13:18:58
heißt das, zwei 6800u haben im sli nur 7229 punkte erreicht? da hätte ich mehr erwartet...

Kommt mir auch ziemlich wenig vor, immerhin kratz bereits eine X800XT PE an der 6K Marke.

reunion
2004-09-30, 13:20:35
Wus?
Wohl eher in sehr 'speziellen', nicht praxis-relevanten, non-RealWorld 'Situationen'...
Ich erinnere mich noch an ca. 40-50% Mehrleistung und das war's dann auch schon.

Razor

Nein, speziell die V5 war (zumindest mit SSAA) fast immer genau 100% schneller als die V4.

r@w
2004-09-30, 13:40:46
Nein, speziell die V5 war (zumindest mit SSAA) fast immer genau 100% schneller als die V4.Das SSAA lassen wir jetzt einfach mal weg, gell?
Und zumindest unter 32Bit stimme ich Dir sogar zu!
:D

Razor

P.S.: mit SLI (nVidia-like ;-) schwebte mir allerdings eher das VoodooII-SLI vor...
Mit dem VSA-100 sah die Geschichte schon besser aus.

Demirug
2004-09-30, 13:55:50
Also lohnt sich eigentlich SLI nur auf einem Dual-(CPU)-Board?

Nein, man kann ja AA/AF hochstellen um aus der CPU limitierung zu kommen.

Gast
2004-09-30, 14:28:24
Kommt mir auch ziemlich wenig vor, immerhin kratz bereits eine X800XT PE an der 6K Marke.
... wie hoch sind denn die X800 getaktet...
ne normale 6800 Ultra macht an die 5000 Punkte, 2 bringen also 72xx, sind also knappe 50%.
Man kann sicher auch mit einer 6800Ultra an die 6k Marke stoßen wenn man entsprechend an der Taktschraube dreht (oder wartet bis die Treibertweaks weiter voran geschritten sind :devil:)

Gibts eigentlich schon ein kommentar Seitens NV zur Leistung der FX Serie, da die ja mit dem Shader 2.a Profil einiges an Leistung gewinnen, gegenüber einer reinen 2.0 Nutzung?

Gast
2004-09-30, 14:34:03
Blödsinn. In gewissen Situationen brachte das Voodoo SLI ~100% Mehrleistung (V1*,V2,V5)

*Bei der Voodoo Graphics wars AFAIK nur mit einem betatreiber möglich die Karten im SLI zu betreiben.

[Zitat Gast] NVs SLI ist effizienter als Voodoo SLI."

Is auch falsch...



NV hat 2 (SLI) Modi, woher willst du wissen, dass beide ineffizienter sind als das der Voodoo´s ? Zumal die Voodoo ja nix mit Shadern anfangen können, NV aber die da anfallenden Rechenarbeit auf 2 Karten verteilen kann, SLI war ja damals nur ein Füllraten bringer.

Crazy_Bon
2004-09-30, 14:34:13
Ich bin mal gespannt, wie schnell zwei ATi-Flagschiffe auf einem Aleinware-Rechner sind.

Mr. Lolman
2004-09-30, 16:21:15
Das SSAA lassen wir jetzt einfach mal weg, gell?
Und zumindest unter 32Bit stimme ich Dir sogar zu!
:D

Razor


Naja, irgendwie muss ja die GraKa ausgelastet werden. Kein FSAA, kein 32bit, vielleicht noch maximal 1024x768 und schon wunderts mich auch nicht mehr, das da keine 100% Mehrleistung drinnen sind.


P.S.: mit SLI (nVidia-like ;-) schwebte mir allerdings eher das VoodooII-SLI vor...
Mit dem VSA-100 sah die Geschichte schon besser aus.


Und selbst da sind knapp 100% keine Unmöglichkeit gewesen, ist zwar ein Extremwert bei den THG Ergebnissen, aber THG ist auch die einzige Seite, die ich auf Anhieb gefunden hab, wo eine V2 gegen V2 SLI gebencht wurde:

http://www.de.tomshardware.com/graphic/19981007/index.html


edit: Hoppla, den Titel hab ich abgeschnitten:

"Unreal - Glide" sollte da noch in den Diagrammen stehen.

Mr. Lolman
2004-09-30, 16:27:12
NV hat 2 (SLI) Modi, woher willst du wissen, dass beide ineffizienter sind als das der Voodoo´s ? Zumal die Voodoo ja nix mit Shadern anfangen können, NV aber die da anfallenden Rechenarbeit auf 2 Karten verteilen kann, SLI war ja damals nur ein Füllraten bringer.

Ich weiss ja auch nicht. Du hast mit der Effizienzsache angefangen. Ich schrieb nur dass das nicht stimmt, weil es eben bei den Voodoos (auch bei der V2) durch SLI tw. bis zu 100% Mehrleistung gegeben hat. Das da NV architekturbedingt nun ein bisschen mehr Stress hat, als 3dfx damals ist auch irrelevant, wenn man die Effizienz betrachtet.


(Das ist erinnert mich an die Argumentation,von manchen Leuten, die meinten man solle das 4xAA der FXen ruhig gegen das der Radeons benchen weil eh gleich viel geackert wird. Entscheident ist nunmal was hinten raus kommt, und wenn das bei den Voodoos bis zu 100% Mehrleistung waren und bei NV momentan (!) nur 50% kann man schon mal vorsichtig die Behauptung aufstellen dass 3dfxschens SLI Technik effizienter ist/war, als die von NV. Zumindest klingts plausibler als wenn man das Gegenteil behaupten würde. Ok?)

aths
2004-09-30, 18:35:16
Lolman,

interessant ist doch eher, ob Nvidias SLI-Lösung besser oder schlechter ist als die nächste verfügbare. ATI selbst hat nun gar kein SLI. Hm. Insofern wäre Nvidias SLI selbst mit 30% Effizienz besser als ATIs Angebot. Vielleicht kann Alienware ATIs Ruf bezüglich des Top-Performers ja noch retten.

Die Zeiten haben sich geändert, die Effizienz bei SLI zu steigern ist viel schwieriger als früher. Da nützt es nix darauf zu verweisen, dass Uralt-Karten effizienter betrieben werden konnen.

tombman
2004-09-30, 21:14:11
naja, irgendwie bin ich skeptisch bei der ALienware-Sache... ob das wirklich so transparent rennt ..... oder nur für gewisse games...

Wann kommt eigentlich der R5xx?

tombman
2004-09-30, 21:15:27
7200 is btw schon echt schwach für SLI.... da muß Nvidia noch dran feilen

8500 wären angemessen bei 5000 single.

seahawk
2004-09-30, 21:21:19
Ist doch sowieso nur ein Werbegag. Die 8000 wird der R480 wahrscheinlich ohne SLI holen.

MadMan2k
2004-09-30, 21:51:39
Insofern wäre Nvidias SLI selbst mit 30% Effizienz besser als ATIs Angebot.
nein, wäre es nicht, es wäre Transistorverschwendung.

ShadowXX
2004-09-30, 21:59:46
nein, wäre es nicht, es wäre Transistorverschwendung.

Weniger Transistorverschwendung...man hat ja 2 Karten und nicht eine, bei der sehr ineffektiv noch eine 2te GPU aufgelötet wurde (wie z.B. bei der XGI).

Es ist eher Geldverschwendung für die, die so etwas Kaufen würden (und die 2te Karte dann nicht doch für was anderes nutzen können...)

ShadowXX
2004-09-30, 22:11:54
7200 is btw schon echt schwach für SLI.... da muß Nvidia noch dran feilen

8500 wären angemessen bei 5000 single.

Das Problem wird sein, dass zur optimalen Ausnutzung des nV-SLIs der Treiber wohl "nähere" Infos über die jeweiiligen Games braucht....

Weniger um zu Cheaten, sondern mehr um die Lastverteilung zu optimieren...man muss heutzutage eben mehr als nur die Füllrate aufteilen....

Bei nicht bekannten Games, sind so um die 50% wohl das Optimum....

Benedikt
2004-09-30, 22:17:32
Das Problem wird sein, dass zur optimalen Ausnutzung des nV-SLIs der Treiber wohl "nähere" Infos über die jeweiiligen Games braucht....

Weniger um zu Cheaten, sondern mehr um die Lastverteilung zu optimieren...man muss heutzutage eben mehr als nur die Füllrate aufteilen....

Bei nicht bekannten Games, sind so um die 50% wohl das Optimum....

Also doch wieder applikationsspezifische Optimierungen nötig... :frown:

MFG,
B. W.

Sphinx
2004-10-01, 04:03:43
LoL @ PR Mitteilung - Der Weltrekord von Gestern wurde durchbrochen ,)

http://service.futuremark.com/compare?3dm05=38454


Edit : Und das mit einer Karte ,)

mictasm
2004-10-01, 06:12:09
Warum fehlen da die CPU Testergebnisse?

Radeonator
2004-10-01, 06:59:48
LoL @ PR Mitteilung - Der Weltrekord von Gestern wurde durchbrochen ,)

http://service.futuremark.com/compare?3dm05=38454


Edit : Und das mit einer Karte ,)

lol ja ganz toll, ein auf fast 3GHz Overclockter Prozzi und eine gnadenlos Overclockte Graka...das wird natürlich übersehen :rolleyes:

FX-53 @ 266x11*, X800XT PE @ 806/648 (no artifacts), Gigabyte S939, Mushky PC3500 @ 266 2-2-2-6, VapoLS on CPU (-40C), Cascade on GPU (-85C)
*CPU AMD Athlon(tm) 64@ 2930 MHz ;D


Mein Gott, wie kann man sich so an einem lächerlichen Synthetic Bench aufhängen. Hat die Vergangenheit nicht jedesmal bewiesen, das die Ergebnisse absolut null aussage kräftig sind ? Ist es nicht eher so, das die beiden großen anhand des tollen FutureMurks nur unter beweis gestellt haben, wie sie mit Cheats mehr Performance vorzutäuschen versuchen?

Aber durch solch einfach zu beeindruckende Menschen, die nur die andere Seite bash00rn wollen, das ideale Werkzeug....nicht mehr und nicht weniger :down:

Gast
2004-10-01, 08:43:31
Lolman,

interessant ist doch eher, ob Nvidias SLI-Lösung besser oder schlechter ist als die nächste verfügbare. ATI selbst hat nun gar kein SLI. Hm. Insofern wäre Nvidias SLI selbst mit 30% Effizienz besser als ATIs Angebot. Vielleicht kann Alienware ATIs Ruf bezüglich des Top-Performers ja noch retten.

Die Zeiten haben sich geändert, die Effizienz bei SLI zu steigern ist viel schwieriger als früher. Da nützt es nix darauf zu verweisen, dass Uralt-Karten effizienter betrieben werden konnen.

ATHS,

irgendwie scheinst du nicht informiert zu sein!

Es hat doch vorgestern ein ATI User geschaftt diesen lächerlichen REKORD*ggg* mit 2 SLI (900€ Hardware) mit einer X800 zu toppen (450€ Hardware).

+9% mehr PERFORMANCE bei 3DMark05 mit X800 XT PE


Das war eindeutig ein grünes EIGENTOR!!!!!

Mmmmmh
2004-10-01, 08:45:53
lol ja ganz toll, ein auf fast 3GHz Overclockter Prozzi und eine gnadenlos Overclockte Graka...das wird natürlich übersehen :rolleyes:

FX-53 @ 266x11*, X800XT PE @ 806/648 (no artifacts), Gigabyte S939, Mushky PC3500 @ 266 2-2-2-6, VapoLS on CPU (-40C), Cascade on GPU (-85C)
*CPU AMD Athlon(tm) 64@ 2930 MHz ;D


Mein Gott, wie kann man sich so an einem lächerlichen Synthetic Bench aufhängen. Hat die Vergangenheit nicht jedesmal bewiesen, das die Ergebnisse absolut null aussage kräftig sind ? Ist es nicht eher so, das die beiden großen anhand des tollen FutureMurks nur unter beweis gestellt haben, wie sie mit Cheats mehr Performance vorzutäuschen versuchen?

Aber durch solch einfach zu beeindruckende Menschen, die nur die andere Seite bash00rn wollen, das ideale Werkzeug....nicht mehr und nicht weniger :down:

:up:
Ja manchmal kommt es mir so vor als ob diejenigen sich vor der ganzen Welt rechtfertigen müssten, warum sie denn genau dieses eine Produkt im Rechner am rennen haben und es wird dann bis auf's Blut verteidigt, als ob das eigene Leben davon abhängt. Man wann wird das endlich aufhören, dass die Leute im Schema z.B. Gut(ATI) gegen Böse(NV) oder für andere anders herum zu denken. Man das sind bloß riesige Konzerne, die zu Geld kommen wollen und dabei ist denen jedes Mittel recht. Dieses rosarot "Gedenke" kann einen echt schon langsam richtig ankotzen.

LOCHFRASS
2004-10-01, 08:50:08
Es hat doch vorgestern ein ATI User geschaftt diesen lächerlichen REKORD*ggg* mit 2 SLI (900€ Hardware) mit einer X800 zu toppen (450€ Hardware).

Dann zeig mir mal, wo ich ne X800 inkl. Kompressor-Kaskade fuer 450 EUR bekomme...

Gast
2004-10-01, 08:52:59
Dann zeig mir mal, wo ich ne X800 inkl. Kompressor-Kaskade fuer 450 EUR bekomme...

Fangen wir jetzt bei Kleinigkeiten an????

Zeig dur mir doch mal wo ich eine SLI System bekommen kann??????

Zudem bei der SLI-Lösung keine Kompressor Kaskade möglich ist!

By the way,

ATI is still No1!!!!

Quasar
2004-10-01, 10:00:14
Wenn ich mir die von Macci erreichten FPS (also nicht die Murkse) mal so anschaue, denke ich, daß selbst solche Geschosse noch lange nicht in der Lage sind, "echtes" DX9, also wirklich fordernden Shadereinsatz, ausreichend schnell zu berechnen.

Scheint so, daß wir mal wieder "DX11"-Karten brauchen, um DX9-Spiele zu spielen, so wie man DX9-Karten brauchte, um DX7-Spiele zu spielen*.


*bei hoher Auflösung und in hoher Bildqualität

Jesus
2004-10-01, 10:22:22
Wenn ich mir die von Macci erreichten FPS (also nicht die Murkse) mal so anschaue, denke ich, daß selbst solche Geschosse noch lange nicht in der Lage sind, "echtes" DX9, also wirklich fordernden Shadereinsatz, ausreichend schnell zu berechnen.

Scheint so, daß wir mal wieder "DX11"-Karten brauchen, um DX9-Spiele zu spielen, so wie man DX9-Karten brauchte, um DX7-Spiele zu spielen*.


*bei hoher Auflösung und in hoher Bildqualität

stimmt irgendwie schnelle sehen 25 fps nicht aus :)

naja besser als bei mir isses allemal ;) Fragt sich halt wie effizient diese Enigne überhaupt ist. Allerdings find ich es schon beeindruckend wie quasi ein einzelner Typ sowas zustandebringt und damit technisch so ziemlich alles in den Schatten stellt, verglichen mit solchen Krachern wie D3 oder Hl2 die Jahrelang mit Riesenbudget entwickelt werden. :rolleyes:

Radeonator
2004-10-01, 10:24:19
Wenn ich mir die von Macci erreichten FPS (also nicht die Murkse) mal so anschaue, denke ich, daß selbst solche Geschosse noch lange nicht in der Lage sind, "echtes" DX9, also wirklich fordernden Shadereinsatz, ausreichend schnell zu berechnen.

Scheint so, daß wir mal wieder "DX11"-Karten brauchen, um DX9-Spiele zu spielen, so wie man DX9-Karten brauchte, um DX7-Spiele zu spielen*.


*bei hoher Auflösung und in hoher Bildqualität

Du meinst doch sicher WGF 2 Karten oder ? ;)

@Gast: Netter billiger Versuch einen Flamewar zu starten, :usleep:

Gast
2004-10-01, 10:35:05
ATHS,

irgendwie scheinst du nicht informiert zu sein!

Es hat doch vorgestern ein ATI User geschaftt diesen lächerlichen REKORD*ggg* mit 2 SLI (900€ Hardware) mit einer X800 zu toppen (450€ Hardware).

+9% mehr PERFORMANCE bei 3DMark05 mit X800 XT PE


Das war eindeutig ein grünes EIGENTOR!!!!!

Ja und was machst du wenn jemand mit dem gleichen oder einem ähnlichen Verfahren eine SLI Lösung mit 2 NV40 Ultra übertaktet?
Dumm aus der Wäsche guggen würde ich sagen.

Ist doch alles ohnehine für die Tonne.
Im Preissegment bis 400 Euro ist die 6800GT die beste Wahl.
Im Preissegment bis 220 Euro die 6600GT im Bereich 450 bis 550 ist es die X800XT-PE und wer dann gegen Ende diesen Jahres die bestmögliche Performance will also die High End Krone der muss dann eben eine GF6800Ultra SLI Lösung kaufen.
Den Tron wird Nvidia erklimmen obs nun einigen gefällt oder nicht. Zu welchem Preis steht dabei sowieso nicht zur Debatte, weil ich dann die XT-PE und GF6800Ultra schon in Frage stellen müsste wegen der 6800GT.

ShadowXX
2004-10-01, 10:59:52
Wenn ich mir die von Macci erreichten FPS (also nicht die Murkse) mal so anschaue, denke ich, daß selbst solche Geschosse noch lange nicht in der Lage sind, "echtes" DX9, also wirklich fordernden Shadereinsatz, ausreichend schnell zu berechnen.

Scheint so, daß wir mal wieder "DX11"-Karten brauchen, um DX9-Spiele zu spielen, so wie man DX9-Karten brauchte, um DX7-Spiele zu spielen*.


*bei hoher Auflösung und in hoher Bildqualität

Das war doch schon immer so.......was anderes erwarte ich gar nicht mehr....

Btw...ich geh jetzt Heiraten...hab um 12:20 meinen "Termin"....nach 2 Kindern wirds ja auch langsam Zeit...(das ist kein Scherz)

Quasar
2004-10-01, 11:04:47
Hey!

Herzlichen Glückwunsch, falls es sich als die richtige Entscheidung herausstellt - herzliches Beileid, falls nicht.

:D

predprey
2004-10-01, 11:48:34
Wow ... wie hast du dass be ider Aufregung geschafft, die Tasten richtig zu treffen ?? :D

Viel spass :up:

Riipa
2004-10-01, 11:57:13
Hart wie Kruppstahl! Ich glaube, 1:20 h vor meiner Hochzeit würde ich mich nicht trauen noch rumzuhängen und zu posten. =)
Und ich dachte, _ich_ wäre knallhart*.

P.S. HERZLICHEN GLÜCKWUNSCH!

* Zu dieser Meinung bin ich gekommen, als es bei uns im Haus brannte und ich nach Feststellung, dass nach Aussage eines Bewohners keiner mehr in der Wohnung ist, wieder daddeln gegangen bin. Leider kam irgendwann ein besorgter Feuerwehrmann vorbei, der von "Clanwar" nichts hören wollte und meinte es wäre besser wenn ich mal runtergehe. Dabei sind die Wohnheimzimmer doch 1a gekapselt, da würde ich wahrscheinlich nicht mal merken, wenn es NEBENAN brennen würde. :p

Gaestle
2004-10-01, 12:09:07
Sorry für OT:

@shadowXX:
http://www.pappa.com/familie/Scheidung2004.htm

Viel Spass! Und mein Beileid... :biggrin:

Und zu den Kindern:

Hochzeitsnacht
In früheren Zeiten war die Hochzeitsnacht ein bedeutendes Ereignis für die Frischvermählten. Denn in der Hochzeitsnacht durften sie zum ersten Male legal den Geschlechtsverkehr vollziehen. In der heutigen Zeit haben viele Partner schon vor der Ehe sexuelle Erfahrungen gesammelt. Trotzdem gilt die Hochzeitsnacht als etwas Besonderes - zum ersten Mal verbringen die Partner eine Nacht in erlaubter, sogar kirchlich und staatlich abgesegneterVereinigung miteinander.

Quelle: http://www.aufklaeren.ch/lexikon/index.php?lexwort=Hormone&bs=h&
:biggrin: :biggrin: :biggrin:


Grüße

ShadowXX
2004-10-01, 21:06:48
Da ich zwischen Feiern und Hochzeitsnacht gerade mal zufällig an einen Rechner komme bedanke ich mich für alle Glückwünsche und Ratschläge....

Danke an alle.....

So...jetzt wird weitergefeiert.....

betasilie
2004-10-01, 22:35:57
Shadow, meinen Glückwunsch. :up:

Black-Scorpion
2004-10-01, 22:43:53
Auch von mir Herzlichen Glückwunsch.

Fadl
2004-10-02, 00:30:02
Auch von mir Herzlichen Glückwunsch. Aber treibs nicht zu doll..... ;)