Archiv verlassen und diese Seite im Standarddesign anzeigen : Die Zukunft des Verkehrs - Autonomes Fahren - der Diskussionsthread
Seiten :
1
2
3
4
5
6
7
8
[
9]
13.2.8
Fast am Ziel.
3V7p3f6u5M0
Gibt jetzt erste Livestreams aus China:
https://x.com/shrmodelx/status/1894308019976245544
Macht sich nicht schlecht dafür, dass es die erste Version dort ist. Ist aber noch nicht so gut wie in Nordamerika in Bezug auf Spuren und zulässige Spurwechsel.
Voodoo6000
2025-03-17, 10:33:41
Es sind vielleicht keine besonders realistischen Szenarien, aber Teslas Camera Only Ansatz ist in einigen Szenarien problematisch.
IQJL3htsDyQ
MasterElwood
2025-03-17, 11:15:09
Es sind vielleicht keine besonders realistischen Szenarien, aber Teslas Camera Only Ansatz ist in einigen Szenarien problematisch.
https://youtu.be/IQJL3htsDyQ
Nicht bei FSD. Bei FSD würde das System - wie ein Mensch auch - die Geschwindigkeit an die Situation anpassen = nicht mit voller Kanne in nebeliger Umgebung ect. Fahren. Damit käme auch der Tesla auf 5 geschaffte nicht nur auf 3.
Die aufgemalte Wand würde FSD wahrscheinlich niedermähen - das ist jedoch eine Trainingssache und keine technische Limitierung von Kameras. Es sollte auch für HW3 Kameras kein Problem sein so einen offensichtlichen Rand zu erkennen - muss halt drauf trainiert werden.
Generell muss man natürlich sagen dass das ganze offensichtlich verstecktes Werbevideo für Marks Kumpel mit dem tragbaren LIDAR ist - desswegen auch die ganze Disneyland Sache und auch schön passen der Link zum LIDARMANN in der Video Beschreibung - und natürlich wird LIDAR generell als allkönnend dargestellt.
Ich mag Mark normalerweise - aber hier hat er das Publikum schon dreist angelogen um sein LIDAR als Gottesgeschenk darzustellen.
Beispiel: "Niemand hat bis jetzt gewusst wie Space mountain im Inneren aussieht" - obwohl es dutzende Ride Videos mit Lichter an gibt, Bücher über Disneyland mit den Space mountain Blueprints, Modelle zum kaufen usw....
Echt schade. Der Typ hat am Marsrover mitgeschraubt und ist einer der bekanntesten Youtuber überhaupt. Der hat sowas garnicht nötig...
TheCounter
2025-03-17, 13:06:12
Das Video wurde auf X schon auseinander genommen. Teilweise war der Autopilot gar nicht aktiviert. Ist wohl ein Sponsored Video.
Schade, eigentlich hatte ich Mark für einen coolen Typen mit Köpfchen gehalten, aber das Video ist übelst schlecht.
Der Post von Whole Mars trifft es ganz gut:
Mark Rober: Should we show how Luminar LIDAR based cars perform much better in dense urban traffic?
Luminar: No, our system can't do that
Mark Rober: Should we show how much better it is than Tesla at driverlessly operating in parking lots
Luminar: No, our system can't do that.
Mark Rober: Well, what is your system better at?
Luminar: Well, you know how in Road Runner Will E. Coyote would always drive into the wall because roadrunner painted a road on it? Well, our system should be able to perform better on that if we compare it to a five year old version of Autopilot. We can't use FSD as the latest occupancy network would probably detect it, just like how a human can see it with their eyes
Mark Rober: Oh yeah, that happens to me all the time. That's much more important to your average driver than those first few ideas I had
Sunrise
2025-03-17, 15:08:58
Es sind vielleicht keine besonders realistischen Szenarien, aber Teslas Camera Only Ansatz ist in einigen Szenarien problematisch.
https://youtu.be/IQJL3htsDyQ
Genau mein Humor
https://i.imgur.com/EIrstaB.png
Es sind vielleicht keine besonders realistischen Szenarien, aber Teslas Camera Only Ansatz ist in einigen Szenarien problematisch.
https://youtu.be/IQJL3htsDyQ
Er macht den Tempomat (nicht FSD) in der letzten Sekunde an und drückt auf Gaspedal. Und dann total verblüfft, wenn das Auto in die Wand knallt ;D;D;D
arcanum
2025-03-17, 17:43:29
Er macht den Tempomat (nicht FSD) in der letzten Sekunde an und drückt auf Gaspedal. Und dann total verblüfft, wenn das Auto in die Wand knallt ;D;D;D
Warum braucht man auch FSD für diesen Test? Der Tempomat ist adaptiv und jedes Auto mit Lidar macht eine Notbremsung weil es das Hindernis erkennt.
TheCounter
2025-03-17, 20:54:59
Er macht den Tempomat (nicht FSD) in der letzten Sekunde an und drückt auf Gaspedal. Und dann total verblüfft, wenn das Auto in die Wand knallt ;D;D;D
Das geile ist, dass er sogar gelogen hat, mit welchem Handy er aufgenommen hat. Er hat per Videobearbeitung aus seinem iPhone ein Google Pixel im gemacht und das G Logo im Landscape Modus darüber gelegt (also falsch herum!) (https://x.com/TailosiveTech/status/1901428796190023977) ;D ;D
Tintenfisch
2025-03-18, 05:50:26
13.2.8
Fast am Ziel.
https://youtu.be/3V7p3f6u5M0
Sagst du das nicht seit 11.1?
Mal schauen was du bei 21.8.3.2 sagst—-> Bald geschafft!?
Gebrechlichkeit
2025-03-18, 17:46:46
A group of Tesla fans inadvertently exposed the company's "shadiness" regarding crashes involving Autopilot. The fans claimed that Autopilot was not active in a crash test video, but the video actually shows Autopilot engaged and disengaging just before the crash. This behavior is consistent with previous reports of Autopilot disengaging within seconds of a crash becoming inevitable. The incident highlights Tesla's inconsistent reporting of ADAS data and potential attempts to create legal confusion in liability lawsuits.
https://i.ibb.co/TB6SSCvb/Snipaste-2025-03-18-17-25-08.png (https://ibb.co/hRbjjq7Z)
https://imgur.com/gallery/3gyDeAp
https://i.ibb.co/Q7QnBLYS/Snipaste-2025-03-18-17-29-37.png (https://ibb.co/fVFtRfr6)
Department of Government Efficiency (DOGE), responsible for the reduction or elimination of certain federal agencies and programs like:
Parts of the U.S. Government Affected by Musk’s Actions
Divisions Investigating Tesla and Elon Musk
Department of Labor - Office of Federal Contract Compliance Programs (OFCCP):
Investigation: The OFCCP was auditing Tesla for potential discriminatory practices at its Fremont, California factory, where workers reported racial abuse and harassment since 2012. The investigation was ongoing as of early 2025, with no public findings released.
Fate: The OFCCP was essentially shut down in January 2025 after Trump’s executive order rescinded its authority. A letter was sent to Tesla and other audited companies stating they no longer had to comply with OFCCP rules, effectively ending the investigation. This aligns with your question about whether the divisions investigating Tesla were "the ones getting the boot"—in this case, yes, the investigating body was eliminated.
Department of Justice (DOJ):
Investigation: The DOJ had expanded probes into Tesla beyond its Autopilot and Full Self-Driving (FSD) systems, looking into personal benefits, related parties, vehicle range claims, and personnel decisions. Subpoenas were issued as early as 2023, suggesting a broad inquiry possibly involving Musk personally.
Fate: As of March 18, 2025, there’s no definitive evidence that these investigations have been terminated, but experts predict they could be halted under Trump’s administration, given Musk’s influence and Trump’s history of intervening in DOJ matters. Reports suggest ongoing probes might "grind to an abrupt end," though no official closure has been confirmed.
National Highway Traffic Safety Administration (NHTSA):
Investigation: Part of the Department of Transportation (DOT), NHTSA was investigating Tesla’s automated driving systems (e.g., Autopilot and FSD) following dozens of crashes, including fatal ones. As of early 2025, it had six active probes and had pressured Tesla into recalls.
Fate: NHTSA remains operational, and there’s no evidence it has been shut down. However, Musk’s influence via DOGE could potentially weaken its regulatory power, though no specific cuts to NHTSA have been detailed as of now.
Equal Employment Opportunity Commission (EEOC):
Investigation: The EEOC, operating under a different department from the OFCCP, sued Tesla in September 2023 for widespread racial harassment of Black employees at its Fremont plant. This case was ongoing as of early 2025.
Fate: The EEOC has not been shut down, and the lawsuit persists, though Musk’s broader influence might pressure such agencies to scale back enforcement.
Securities and Exchange Commission (SEC):
Investigation: The SEC was probing whether Musk and Tesla overstated the autonomous capabilities of their vehicles, alongside earlier settled charges from 2018 over Musk’s tweets. This investigation continued into 2025.
Fate: The SEC remains active, but Musk’s role in DOGE raises concerns about potential conflicts of interest that could soften its stance on his companies.
Federal Aviation Administration (FAA):
Investigation: The FAA, part of the DOT, had fined SpaceX (another Musk company) over $600,000 in 2024 for launch license violations and was involved in regulatory oversight of SpaceX activities.
Fate: The FAA has not been shut down, though Musk has reportedly pushed to redirect contracts to his companies, like Starlink, indicating potential influence over its operations.
Environmental Protection Agency (EPA):
Investigation: The EPA had investigated Tesla for environmental violations, though specifics are less detailed in recent reports.
Fate: The EPA has not been eliminated, but DOGE’s broader cuts could impact its capacity to pursue such cases.
Were These the Ones "Getting the Boot"?
Direct Shutdown: The OFCCP is the clearest example of a division investigating Tesla that was effectively "booted" via its agency’s dissolution in January 2025. This directly halted its audit of Tesla.
Potential Influence: Other agencies like the DOJ, NHTSA, EEOC, SEC, FAA, and EPA continue to exist, but Musk’s DOGE role and Trump’s administration could indirectly suppress or terminate their investigations. For instance, the DOJ and NHTSA probes might be at risk due to Musk’s sway, though no confirmed shutdowns have occurred for these specific divisions as of March 18, 2025.
Broader Context: Musk’s efforts through DOGE aim to slash federal jobs and budgets across multiple agencies (e.g., 100,000 federal workers affected by February 2025), which could weaken the capacity of remaining investigative bodies over time.
Conclusion
The OFCCP within the Department of Labor was explicitly shut down, directly ending its investigation into Tesla. Other divisions investigating Musk and Tesla—such as the DOJ, NHTSA, EEOC, SEC, FAA, and EPA—have not been formally closed, but their efforts could be curtailed or influenced by Musk’s unprecedented role in reshaping the government. The full extent of these changes remains fluid as legal challenges and administrative shifts continue to unfold in 2025.
surs: https://electrek.co/2025/03/17/tesla-fans-exposes-shadiness-defend-autopilot-crash/
TheCounter
2025-03-18, 18:45:51
Selbst wenn, bewegt Mark das Lenkrad, was sowohl FSD als auch den Autopiloten deaktivieren würde (eindeutig im Video oben zu sehen).
Wurde aber alles schon auf X besprochen. Das ganze Video ist eine Farce, von gefälschten Smartphones, über mehrere Versuche mit der Wand etc.
MasterElwood
2025-03-18, 20:36:56
Selbst wenn, bewegt Mark das Lenkrad, was sowohl FSD als auch den Autopiloten deaktivieren würde (eindeutig im Video oben zu sehen).
Wurde aber alles schon auf X besprochen. Das ganze Video ist eine Farce, von gefälschten Smartphones, über mehrere Versuche mit der Wand etc.
PLUS: AP hat mehrfach verweigert sich einzuschalten. Warum wohl... 🙄
[dzp]Viper
2025-03-18, 22:17:32
Selbst wenn, bewegt Mark das Lenkrad, was sowohl FSD als auch den Autopiloten deaktivieren würde (eindeutig im Video oben zu sehen).
Wurde aber alles schon auf X besprochen. Das ganze Video ist eine Farce, von gefälschten Smartphones, über mehrere Versuche mit der Wand etc.
Jup.. aber alle möglichen Medien nehmen das Video schon ungeprüft auf und es verbreitet sich dadurch extrem. Der Schaden ist also enorm selbst wenn das Video "staged" ist.
Gebrechlichkeit
2025-03-19, 00:40:24
Grok sagt folgendes dazu:
Langfassung:
Alright, let’s break this down for an EV forum audience. Mark Rober’s “Can You Fool a Self-Driving Car?” video, where he pits a Tesla Model Y on Autopilot against a LiDAR-equipped Lexus, has stirred up a lot of controversy. The claim is that it’s misleading, and the moment you’re pointing to—where Autopilot disengages about 5 meters before the fake wall—sits at the heart of the confusion. Here’s why people are calling it out, step by step.
First off, the video’s title and framing suggest it’s testing a “self-driving car,” which most viewers would interpret as Tesla’s Full Self-Driving (FSD) system. But Rober uses Autopilot, not FSD. Autopilot is Tesla’s older, more basic driver-assist feature—think advanced cruise control with lane-keeping, not a full autonomous system. FSD, while still supervised, is a more advanced software stack designed to handle complex scenarios. By testing Autopilot instead of FSD, Rober’s already skewing the comparison.
In the YouTube video, Rober engages Autopilot, and the Tesla barrels toward a Wile E. Coyote-style fake wall painted to look like the road. He claims it “smashes through without a tap on the brakes.” But after backlash, he posted “raw footage” on X showing Autopilot disengaging 17 frames (less than a second at typical video frame rates) before impact, at around 42 mph. Critics zoomed in on this. If Autopilot was on, why did it turn off so close to the wall?
One theory is that Rober nudged the steering wheel, which disengages Autopilot if it detects driver input. Tesla’s system requires hands on the wheel and can deactivate if it senses resistance or intentional steering. Problem is, the footage doesn’t clearly show his hands or feet, so we can’t confirm if he tensed up and jerked the wheel, as some suggest, or if he manually overrode it.
Here’s where it gets messier. Tesla owners and engineers on forums like X have pointed out that Autopilot (and even FSD) has a known quirk: it can disengage just before a crash (added to the phantom breaking issues). This isn’t new—NHTSA investigations from 2022 found Autopilot aborted control less than a second before impact in several incidents involving stationary objects.
Some argue this is a liability dodge by Tesla, but it’s also possible the system detected an anomaly (like the wall) too late to brake effectively, so it handed control back to the driver (yes, that´s a good idea > hand over the control to the human with even less time to reaction 2m before crashing!).
At 40-42 mph, 5 meters is about 0.3 seconds of travel time—way too short for human reaction or meaningful braking, especially if Rober wasn’t expecting it. So, even if Autopilot was engaged until that point, its disengagement could mean it failed to “see” the wall in time, or it saw it but couldn’t respond, which still looks bad for Tesla’s camera-only approach.
But let’s zoom out. The test itself is questionable. A fake wall isn’t a real-world scenario—human drivers wouldn’t face this outside a cartoon.(LOL) Rober’s other tests (fog, heavy rain) also pushed extremes where even humans might struggle, yet he frames Tesla’s failures as a fatal flaw.
Meanwhile, the LiDAR-equipped Lexus, backed by Luminar (whose branding is all over the video), aces every test. This raises red flags about bias. Luminar’s a LiDAR company with a vested interest in dunking on Tesla’s camera-only “Tesla Vision” strategy. Rober says it wasn’t paid promotion, but Luminar linked the video on their site (later removed), and their employees were involved. It smells like a stealth ad, which Rober doesn’t disclose upfront, adding to the “misleading” charge.
Then there’s the execution. Screenshots from the video show no blue lines or “rainbow road” (visual cues Autopilot is active) in the final moments before impact, suggesting it might’ve been off earlier than claimed. The “raw footage” speed jumps from 40 mph in the YouTube cut to 42 mph, hinting at multiple takes—did he juice the drama? Critics argue if he wanted a legit test, he’d use FSD, hands-off, with clear documentation of engagement status. Instead, it feels staged for a viral crash.
So, why’s it misleading? It oversells a basic system (Autopilot) as Tesla’s best self-driving tech, tests it in an unfair, theatrical setup, and obscures key details—like why it disengaged—while subtly shilling for LiDAR. The steering wheel debate? It’s a symptom of sloppy transparency. Whether Rober touched it or not, the video doesn’t prove Tesla’s cameras failed as much as it proves the test was rigged to make them look bad. For EV fans, it’s a lesson: cool experiments don’t always equal good science. Thoughts?
Kurzfassung:
Mark Rober's video, "Can You Fool a Self-Driving Car?", which contrasts Tesla's Model Y Autopilot with a LiDAR-equipped Lexus, has sparked significant debate due to perceived misleading elements. A crucial point of contention arises from Rober’s choice to test Autopilot—a simpler driver-assist feature—rather than Tesla's Full Self-Driving (FSD) system, leading to accusations of skewed comparisons. The video depicts a scenario where the Tesla seemingly fails to brake before hitting a fake wall, with Rober initially implying the Autopilot operates without intervention. However, subsequent footage reveals that the system disengaged mere moments before the impact, raising questions about whether Rober manually interfered with the controls.
Critics point out that Tesla's Autopilot can disengage just before a crash, which has been substantiated by previous investigations into the system’s performance. Rober's experiment, utilizing a cartoon-like obstacle, is seen as impractical in real-world driving conditions, and criticisms have surfaced regarding the bias involved in the test—especially since the Lexus was backed by Luminar, a LiDAR company with interests in discrediting Tesla's camera-based approach. Furthermore, inconsistencies in the video, such as a lack of indicators showing Autopilot was engaged and discrepancies in recorded speeds, suggest the potential for staging the experiment for dramatic effect.
Ultimately, the video raises essential discussions about the transparency and legitimacy of such tests. While it aims to question Tesla's technology, it may inadvertently serve more as an entertainment piece rather than a scientific evaluation, highlighting how compelling experiments do not always equate to sound methodology in assessing advanced vehicle technologies.
Nix neues, Tesla Schlitten haben seit 2011? immernoch Probleme mit Phantom Breaking (HW1) und davor (HW0) war´s noch regenreative breaking. Das hat man bis heute nicht rauspatchen, fixen koennen oder wollen. Dass das Video angeblich von den anderen "gesponsert" war, ... naja was soll dazu noch sagen. War es fair? Nein, aber die WehWehchen wurde seit 2008 nicht behoben, das sagt vieles ueber die Firma. Wer damit einverstanden ist, durch Eingriff des Systems, auf die andere Fahrbahn gepusht zu werden ... bloss weil ein toter Coyotte die eigene Fahrbahn blockiert, dann nur zu. :freak:
Es spielen weitaus andere Faktoren fuer den Kauf oder nicht eines Wagens. Hier stinkt Tesla gewaltig ab im Vergleich zu den anderen Hersteller. Bis auf die eigene Lade-Infrastruktur bzw. "Plug-In" ... there is nothing left to highlight (positively).
The closest you’d get might be occasional regenerative braking oddities—some early owners noted regen kicking in harder than expected due to software tuning, but that’s a far cry from Autopilot slamming the brakes for a ghost obstacle.
MasterElwood
2025-03-19, 20:19:35
https://youtu.be/QhX_fgekpk0?si=MTwTibw5h3YTPENu
Exposing Mark Robert's Tesla Crash Story
Ich find die Videos aus China deutlich spannender als das engagement bait von Mark Rober.
Länger am Stück: https://x.com/boolusilan/status/1902099768266125748
Water cup challenge: https://x.com/boolusilan/status/1900797478414221691
Sehr schmale Feldwege: https://x.com/boolusilan/status/1901526332158443624
Nicht mal ein Feldweg: https://x.com/DriveGreen80167/status/1901998544258555928
[dzp]Viper
2025-03-20, 23:53:02
So natürlich hat das jetzt jemand nachgestellt und mit FSD v12 und FSD v13 getestet
Zusammenfassung
FSD v12 erkennt die Mauer nicht
FSD v13 erkennt die Mauer und bremst ohne Probleme davor ab.
9KyIWpAevNs
registrierter Gast
2025-03-21, 00:30:04
Wie in den Kommentaren angemerkt, könnte es auch an der HW4 des Cybertrucks liegen oder an der untergehenden Sonne und dem sich daraus ergebenden höheren Kontrast aus Bild und dem Umgebungslicht.
Gibt wohl ein Dokument, dass Tesla im Moment versucht, eine EU-Weite Zulassung / Genehmigung für FSD (Supervised) zu erlangen.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=92237
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=92238
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=92239
https://x.com/KRoelandschap/status/1903102303269425459
Tesla FSD 13.2.8 9,5 Stunden knapp 1000km ohne Eingriff.
6Ijwr63fGu8
registrierter Gast
2025-03-29, 13:14:47
Hier gibt's einen weiteren, aktuellen Road Runner Tesla Test.
Dieses mal ein Vergleich mit Hardware 4 vs Hardware 3. Mehrere Wiederholungen unter gleichen Testbedingungen.
TzZhIsGFL6g
Hardware 4 bemerkt das Hindernis. Hardware 3 nicht.
Würde mich nicht festnageln, dass es an HW3 vs HW4 liegt. Könnte auch FSD12 vs FSD13 sein.
arcanum
2025-03-29, 14:44:06
Irrelevant. Unsupervised wird wahrscheinlich erst ab AI 5 oder später möglich sein während HW 3 bereits obsolete ist und HW 4 wahrscheinlich auch (die Ankündigung folgt wahrscheinlich sobald die ersten AI 5 Fahrzeuge ausgeliefert wurden). Damit hat Tesla Stand heute genau 0 Fahrzeuge auf den Straßen die autonom fahren können.
Sardaukar.nsn
2025-03-29, 16:31:03
Tesla streicht FSD und darf nicht mehr für das Produkt werben, das es gar nicht gibt
https://www.smartdroid.de/tesla-streicht-fsd-und-darf-nicht-mehr-fuer-das-produkt-werben-das-es-gar-nicht-gibt/#google_vignette
Tesla ist mit FSD nicht ehrlich, schon seit Jahren wird Kunden diesbezüglich etwas vorgegaukelt, was Tesla eigentlich noch gar nicht bieten kann. Denn bis heute gibt es kein Full Self Driving, was zu Konsequenzen in China führt.
[MK2]Mythos
2025-03-29, 16:55:20
Finds witzig wie ich nach meiner umfangreichen Erfahrung mit Tesla schon vor 5 Jahren schilderte dass ich massiv bezweifle dass autonomes Fahren mit HW2 möglich ist und es dafür sicherlich noch 2-3 Hardware Upgrades geben wird und ich dafür von der bekannten Teslafraktion hierangegangen wurde und FSD quasi right around the corner ist.
5 Jahre später. HW4 ist längst da und echtes autonomes Fahren natürlich immer noch nicht. ;D
Ich finds witzig, dass Consumer Protection in China da besser ist als in der EU ;D;D;D
anorakker
2025-03-29, 20:46:39
Finds witzig dass Leute für ein nicht funktionierendes Feature jemals Geld ausgegeben haben und damit ausser Tesla die Entwicklung zu zahlen nichts bekommen haben ;D
MasterElwood
2025-03-31, 01:37:07
Finds witzig dass Leute für ein nicht funktionierendes Feature jemals Geld ausgegeben haben und damit ausser Tesla die Entwicklung zu zahlen nichts bekommen haben ;D
FSD hat auch hier und jetzt schon Funktionen die der normale AP oder EAP nicht haben.
MasterElwood
2025-03-31, 01:39:57
Irrelevant. Unsupervised wird wahrscheinlich erst ab AI 5 oder später möglich sein während HW 3 bereits obsolete ist und HW 4 wahrscheinlich auch (die Ankündigung folgt wahrscheinlich sobald die ersten AI 5 Fahrzeuge ausgeliefert wurden). Damit hat Tesla Stand heute genau 0 Fahrzeuge auf den Straßen die autonom fahren können.
Das ist eine reine Erfindung von dir. Raten kann man alles - aber stell es nicht als Tatsache hin.
MasterElwood
2025-03-31, 01:42:10
Ich finds witzig, dass Consumer Protection in China da besser ist als in der EU ;D;D;D
Der chinesischen Regierung sind Konsumer scheiß egal 😂
Da wird das eigene Produkt geschützt...
/dev/NULL
2025-04-01, 11:37:41
Tesla machts vor, die Chinesen nach:
https://www.spiegel.de/auto/xiaomi-chinesisches-unternehmen-will-nach-toedlichem-unfall-nach-fahrassistent-alarm-mit-polizei-kooperieren-a-f07eba02-d60d-4557-b0a7-62bfe676992e
-> In Baustelle gefahren, ausgebrannt, möglicherweise gingen die Türen nicht auf.
FSD hat auch hier und jetzt schon Funktionen die der normale AP oder EAP nicht haben.
Das Preis-Leistungs-Verhältnis ist aber schon ziemlich mau.
Ich würde FSD erst kaufen, wenn es hier auch funktioniert.
Sardaukar.nsn
2025-04-01, 15:52:01
Tragische Sache. Immerhin wohl gut dokumentiert. https://carnewschina.com/2025/04/01/first-fatal-accident-involving-xiaomi-su7-claims-three-lives-on-chinese-highway/
The company’s detailed timeline of the incident reveals several notable events leading up to the crash:
10:27:17 PM: NOA activated, vehicle speed at 116 km/h
10:28:17 PM: Mild distraction warning issued
10:36:48 PM: NOA issued hands-off warning: “Please hold the steering wheel”
10:44:24 PM: NOA issued risk warning: “Please note obstacle ahead,” with deceleration request
10:44:25 PM: Driver took over from NOA, entering manual driving mode, steering wheel turned 22.0625 degrees left, brake pedal pressed 31%
10:44:26 PM: Steering wheel turned 1.0625 degrees right, brake pedal pressed 38%
Between 10:44:26–28: Vehicle collided with concrete barrier
10:44:28 PM: Vehicle eCall triggered
10:44:39 PM: eCall connected, accident confirmed, police and emergency services contacted
10:45:06 PM: Contact established with vehicle owner, confirming non-owner was driving
10:47:15 PM: Emergency medical services successfully dispatched
Approximately 11:00 PM: Emergency services arrived at the scene
Xiaomi stated that a special investigation team was formed immediately after the accident and traveled to Tongling on March 30 to cooperate with police authorities. The company has pledged to assist the victims’ families and maintain transparency throughout the investigation.
MasterElwood
2025-04-01, 15:54:42
Das Preis-Leistungs-Verhältnis ist aber schon ziemlich mau.
Ich würde FSD erst kaufen, wenn es hier auch funktioniert.
Macht Sinn. Das Problem ist: als FSD in den US für alle kam, hat sich der Preis quasi von heute auf morgen verdoppelt. Die Leute die es heute schon kaufen, wollen sich das eben ersparen.
MasterElwood
2025-04-01, 15:57:43
Xiaomi: 2 Sekunden von erster Warnung bis Einschlag. Die Armen hatten keine Chance...
Xiaomi: 2 Sekunden von erster Warnung bis Einschlag. Die Armen hatten keine Chance...
In 2 Sekunden hast du bei der Geschwindigkeit fast 65m zurückgelegt, also viel früher kann die Warnung ja gar nicht kommen, wenn da ein plötzliches Hindernis auf der Strecke ist.
Aber 8 Minuten lang die Warnung ignorieren, dass man die Hände ans Lenkrad bewegen soll, ist halt auch ne Leistung... Richtig gebremst haben sie auch nicht.
MasterElwood
2025-04-01, 19:15:19
In 2 Sekunden hast du bei der Geschwindigkeit fast 65m zurückgelegt, also viel früher kann die Warnung ja gar nicht kommen, wenn da ein plötzliches Hindernis auf der Strecke ist.
collided with concrete barrier
Betonwand is plötzlich aufgetaucht? 😂
collided with concrete barrier
Betonwand is plötzlich aufgetaucht? 😂
Es war eine Baustelle und der Verkehr wurde auf die Gegenfahrbahn umgeleitet, also ja, die steht auf der Spur und taucht plötzlich auf.
Ich versteh nicht warum hier im "Autonomes Fahren" Fred schon wieder über mittelmäßige Driver Assist Systeme diskutiert wird, die überhaupt nichts mit Autonomie zu tun haben.
/dev/NULL
2025-04-01, 21:24:12
Wir reden doch garnicht über FSD (Supervised) in Deutschland..
FSD Supervised in Europe, pending regulatory approval
https://x.com/teslaeurope/status/1908573920296415451
Da fährt wohl ein Safety Driver mit der FSD Beta Supervised in NL.
TheCounter
2025-04-05, 22:35:25
Alter, was ist das für ein Horror-Szenario? Dort hätte ich mal absolut keinen Bock selbst Auto zu fahren...
Respekt, dass FSD das in dem Video so "locker" macht. Wäre nix für mich, viel zu viele Radfahrer und beschissenes Straßenlayout :ugly:
FSD Supervised in Europe, pending regulatory approval
https://x.com/teslaeurope/status/1908573920296415451
Da fährt wohl ein Safety Driver mit der FSD Beta Supervised in NL.
Das das System hier funktioniert ist ja schon seit Jahren klar und weder was neues noch was besonderes.
Fliwatut
2025-04-05, 22:43:13
Wäre nix für mich, viel zu viele Radfahrer und beschissenes Straßenlayout :ugly:
Da siehst du die Zukunft deutscher Städte :wink:
ChaosTM
2025-04-05, 22:48:37
Ich war erst kürzlich In den Hollanden,
und da sind ganze Straßen für Radfahrer reserviert..
Wie krank ist das denn ? ;)
Palpatin
2025-04-16, 13:36:11
Praktisch jetzt hat man eine Ausrede das das Cybercab viel später als angekündigt kommt und deutlich teurer wird. https://www.computerbase.de/news/mobilitaet/tesla-cybercab-kommt-wegen-trumps-china-zoellen-wohl-spaeter.92222/
Cybertruck 2.0 ....
Was für ein Quatsch. Für dieses Jahr war eh nur die Testproduktion geplant. Wie es mit den Zöllen aussieht, kann sich jeden Tag wieder ändern. :freak:
(Das es, aus welchen Gründen auch immer, zu Verzögerungen kommen kann ist eh klar.)
Milchkanne
2025-05-22, 09:41:40
Austin’s a ‘go’ but fleet size will be low. Think 10 to 20 cars. Public roads. Invite only. Plenty of tele ops to ensure safety levels (“we can’t screw up”). Still waiting for a date.
Electrek (https://electrek.co/2025/05/16/tesla-robotaxi-fleet-powered-by-plenty-of-teleoperation/) schreibt das Zitat einem "Tesla cheerleader" zu...
Tesla’s head of AI and self-driving, Ashok Elluswamy: "Equal quality. Technically, Waymo is already performing. We are maybe lagging by a couple years."
Elektrek (https://electrek.co/2025/05/21/tesla-head-self-driving-admits-lagging-a-couple-years-behind-waymo/) sieht darin ein Eingeständniss, dass Tesla hinter Waymo zurück liegt. Technisch ist die Aussage aber ja offensichtlich korrekt. Waymo macht seit Jahren L4 Fahrten. Tesla noch nicht. Ich bin mir nicht sicher, wie weit die Aussage auf die Zukunft bezogen werden kann.
Das Interview ist leider zu 70% auf indisch, daher kann ich schlecht den ganzen Kontext erfassen...
Metzler
2025-05-24, 16:13:24
Wenn es jemanden interessiert: Ein aktueller Talk über Technik, AI @ Waymo, einige interessante Zahlen, etc. von einem der Waymo Cofounder
jnUUo7xso_0
Edit: In dem Video wird auch erwähnt, wo Waymo bereits überall getestet hat - auch in schneereichen Gegenden. Und natürlich, dass man auch long-haul trucking, delivery, etc. zukünftig anbieten möchte.
Sardaukar.nsn
2025-05-27, 08:57:45
Was war denn da los? Sind doch eigentlich perfekte Bedingungen zum Selbstfahren. Wohl noch recht glimpflich ausgegangen und nicht in den Gegenverkehr gekommen. Tesla überschlägt sich beim Full-Self-Driving (https://www.golem.de/news/alabama-tesla-ueberschlaegt-sich-beim-full-self-driving-2505-196566.html)
frGoalySCns
Es haben sich schon viele solcher Videos als unwahr herausgestellt. Solange man den Bildschirm im Auto nicht sehen kann, kann man viel behaupten. :rolleyes:
Bei den FSD Videos, wo der Bildschrim mitgefilmt wird, habe ich noch nie so harte Manöver von FSD gesehen. Eher bleibt es einfach stehen.
/dev/NULL
2025-05-27, 09:14:36
Tesla wird analysieren: FSD hat sich 0,3sec vor dem Unfall abgeschaltet, der User ist schuld
][immy
2025-05-27, 14:14:03
Es haben sich schon viele solcher Videos als unwahr herausgestellt. Solange man den Bildschirm im Auto nicht sehen kann, kann man viel behaupten. :rolleyes:
Bei den FSD Videos, wo der Bildschrim mitgefilmt wird, habe ich noch nie so harte Manöver von FSD gesehen. Eher bleibt es einfach stehen.
Das ist ja auch nur das dashcam video.
Das lustige an den Tesla Automatismen ist ja, das die sich gerne mal kurz vorm Unfall abschalten.
Gab inzwischen aber doch mehrere Unfälle nach dem gleichen Schema. FSD eingeschaltet und plötzlich zieht das Fahrzeug nach links.
Hast du Beispiele, wo das passiert und man den Bildschirm auch sieht?
Bisher habe ich nur Dashcam Videos von seltsamen Unfällen gesehen.
[immy;13763090']
Das lustige an den Tesla Automatismen ist ja, das die sich gerne mal kurz vorm Unfall abschalten.
Die NCAP Tests und diverse FSD YouTuber beweisen eher das Gegenteil.
Hast du Beispiele, wo das passiert und man den Bildschirm auch sieht?Welche normale Autofahrer baut denn ernsthaft eine Dashcam (oder ähnliche Kamera) derart in ein Auto ein, dass zusätzlich das Cockpit samt Bildschirm gefilmt wird? Außer ein paar Youtuber doch sicher niemand?
Gumril
2025-05-27, 17:13:34
Bei meinem ID.3 mit Travelassi will die lenkung auch manchmal bei kleinen Verkehrsinsel einfach gerade aus auf sie zusteuern.
Will sagen solange da nix Stufe 5 ist würde ich das Lenkrad nie ganz loslassen. Da kann das Marketing von den Firmen noch so viel labern.
Welche normale Autofahrer baut denn ernsthaft eine Dashcam (oder ähnliche Kamera) derart in ein Auto ein, dass zusätzlich das Cockpit samt Bildschirm gefilmt wird? Außer ein paar Youtuber doch sicher niemand?
Es gibt viele YouTuber, die FSD ja bewusst testen. Genau die würden so ein Verhalten auch dokumentieren. Ja es gibt auch kritische Leute, die das machen.
Der Punkt ist halt, dass man sonst nicht weiß, ob es das Auto oder der Fahrer war.
Hier ist die Auflösung und Diskussion zu dem Crash oben:
https://x.com/DevinOlsenn/status/1927567865735200838
- FSD war an
- der Fahrer hat angefangen nach links zu lenken (Winkel & Drehmoment protokoliert)
- genau in dem Moment ging FSD auch aus
- Crash
https://x.com/EthanPh/status/1927627976944103451
(Hier sieht man sogar, dass FSD den Lenkwinkel gehalten hat als das Drehmoment anstieg. Aber es gibt halt eine Schwelle, wo es dann abschaltet. Genau dann geht das Drehmoment wieder runter und der Lenkwinkel ändert sich.)
Mein Tesla hat zwar nur AP, aber das Verhalten ist dann genau so. Sobald ich stark genug am Lenkrad drehe und einen gewissen Widerstand am Lenkrad überwinde, habe ich sofort die Kontrolle. Es gibt nur einen kurzen Signalton, dass AP deaktiviert wurde.
Jetzt fehlt noch die Innenraumkamera, um zu wissen, ob der eingeschlafen ist oder mit Absicht gelenkt hat. Vielleicht auch irgendwie blöd mit dem Bein dran gekommen oder so. Besser wenn gar kein Lenkrad drin ist... :D
Es gibt viele YouTuber, die FSD ja bewusst testen. Genau die würden so ein Verhalten auch dokumentieren. Ja es gibt auch kritische Leute, die das machen.Aber das ist doch nicht die Mehrheit. Da reicht doch mal ein grober Querschnitt von Videos auf Dashcam Kanälen. Da hat quasi niemand die Kamera so ausgerichtet, dass die Cockpitinstrumente zu sehen sind. Das machen wirklich nur die 0,x % der Autofahrer, weil sie ihre Videos monetarisieren wollen. Hier gleich jedesmal Betrug zu wittern, nur weil die Instrumente nicht zu sehen sind ... schwierig.
Aber das ist doch nicht die Mehrheit. Da reicht doch mal ein grober Querschnitt von Videos auf Dashcam Kanälen. Da hat quasi niemand die Kamera so ausgerichtet, dass die Cockpitinstrumente zu sehen sind. Das machen wirklich nur die 0,x % der Autofahrer, weil sie ihre Videos monetarisieren wollen. Hier gleich jedesmal Betrug zu wittern, nur weil die Instrumente nicht zu sehen sind ... schwierig.
Was ist daran schwierig? Der obere Fall beweist es doch wieder. Es gibt viele Leute, die einen Unfall auf Tesla schieben wollen, damit die Versicherung zahlt.
Ich spreche auch nicht über normale Fahrer. Die können schlicht nicht beweisen, dass FSD gelenkt hat. Außer es gibt einen Bericht von Tesla oder eine Videoaufnahme vom Bildschirm, die das bestätigen.
Die FSD Tester auf YouTube fordern aber durchaus bewusst das System heraus und dokumentieren auch schlechtes verhalten.
Noch mal synchronisiert:
https://x.com/AIDRIVR/status/1928597919294255304?t=U4lVzXY-jmWvn248lf5CqQ&s=19
TheCounter
2025-06-01, 08:10:36
Hier noch sein (AIDRIVR) YT Video dazu:
JoXAUfF029I
Sieht nach den Daten zu Urteilen so aus, als ob der Fahrer hier massiv am Lenkrad gezogen hat (eventuell ja unabsichtlich, aus welchen Gründen auch immer), wodurch FSD deaktiviert wurde.
Tesla wird analysieren: FSD hat sich 0,3sec vor dem Unfall abgeschaltet, der User ist schuld
Falsch. Alle Unfälle, die innerhalb von 5 Sekunden passieren, nachdem FSD / AP deaktiviert wird, werden bei Tesla automatisch als FSD / AP Unfall gewertet.
Nicht übel :cool:
https://x.com/niccruzpatane/status/1929237978901086468
Ich glaube, das macht kein anderes System mit, oder?
Finde ich jetzt nicht so beeindruckend.
FSD gibt ja selten auf. Versucht also praktisch immer seinen Job zu machen.
Und in dem Video ist die Fahrbare Fläche halt extrem offensichtlich zu erkennen.
Das Video vor ein paar Monaten bei dem FSD auf dieser breiten Schotterpiste mit Gegenverkehr ohne vorausfahrendes Auto nicht nur eine schöne Spur gefunden hat sondern auch noch korrekt abgebogen ist komplett ohne Markierungen war wesentlich beeindruckender.
Jo, dafür hat es am Ende einen relativ großen Hügel erkannt und ist langsam drüber und nicht voll drüber geballert.
Ich glaube, dass die Software der Anderen (Waymo und Co.) in 2D arbeitet während Tesla ja einen Voxel Space hat.
Dadurch macht FSD natürlich so etwas instinktiv richtig.
Metzler
2025-06-02, 13:23:45
Ich glaube, dass die Software der Anderen (Waymo und Co.) in 2D arbeitet während Tesla ja einen Voxel Space hat.
Dadurch macht FSD natürlich so etwas instinktiv richtig.
Wie meinst Du? Sinn von Lidar ist doch gerade, dass ein 3D Bild der Umgebung gebaut wird.
Waymo hat ja auch viele Kameras + Lidar. Ich denke die Sensorik kann da auch genug in 3D erkennen bzw. könnte die SW das auch in 3D umrechnen, aber die Software ist halt kein KI Model. Also der feine Unterschied ist die Entscheidungsfindung. Gibt ja genügend Videos, wo Waymos durch ein Schlagloch oder in tiefes Wasser ballern.
Liegt mMn aber an der Software. Nicht (nur) am Lidar.
Instinktiv ist aber ein passendes Wort, um den Unterschied Tesla vs andere zu unterstreichen. :D
Es ist egal was Lidar oder sonst ein Sensor für Daten liefert. Wichtig ist was deine Software am Ende für ein Weltbild daraus generiert. Und Waymo und all die Anderen generieren quasi eine Top Down 2D Karte mit Ego in der Mitte.
FSD hat das auch viele Jahre lang so gemacht. Ich glaub mit 10 oder 11 wurde es 3D.
Naja, aber mit so vielen Kameras müssen die doch auch mehr anfangen als nur eine Topdown view?
Hast du Quellen dazu wie die das so machen?
Vergleich zu großen Pfützen:;D
https://x.com/niccruzpatane/status/1928584424829907022
Situation ist natürlich nicht ganz vergleichbar, aber FSD versteht, dass da zu viel Wasser ist.
MasterElwood
2025-06-05, 08:35:19
Naja, aber mit so vielen Kameras müssen die doch auch mehr anfangen als nur eine Topdown view?
Hast du Quellen dazu wie die das so machen?
Vergleich zu großen Pfützen:;D
https://x.com/niccruzpatane/status/1928584424829907022
Situation ist natürlich nicht ganz vergleichbar, aber FSD versteht, dass da zu viel Wasser ist.
Versteht nicht jeder ;D
https://x.com/niccruzpatane/status/1928477936845226469?t=QfpSxB8kjw5Q58T5PZ8ARw&s=19
[dzp]Viper
2025-06-05, 11:04:05
Versteht nicht jeder ;D
https://x.com/niccruzpatane/status/1928477936845226469?t=QfpSxB8kjw5Q58T5PZ8ARw&s=19
Das ist ja das Problem von Lidar. Es erstellt ein komplexes 3D-Bild aber das Bild wird dann nach ganz einfachen Regeln analysiert.
FSD arbeitet da ganz anders.. eher wie unsere Augen. FSD "versteht" was es da sieht.. ein LIDAR Auto nicht wirklich.
Deswegen bin ich mittlerweile auch der Meinung, dass FSD der richtige Weg ist. Vor ein paar Jahren war ich mir da nicht sicher.
Das Problem was Tesla hat ist aber, dass es mittlerweile so viele Autos auf der Straße mit FSD und "Autopilot" hat, dass natürlich auch die Anzahl der Zwischenfälle höher ist als bei einer Flotte von 1500-2000 Fahrzeugen (Waymo).
In der Wahrnehmung der Menschen bleibt dann aber nur, dass FSD mehr Zwischenfälle hat als andere Systeme. Der Zusammenhang mit den Anzahl der Fahrzeugen und der Anzahl an gefahrenen KM pro Zwischenfall wird erstmal gar nicht bedacht.
Somit entsteht ein völlig verzerrtes Bild von FSD in der Öffentlichkeit.
arcanum
2025-06-05, 13:13:22
Wer sich wundert, was Waymo mit zig Kameras, Radar- und Lidar-Sensoren sieht:
https://www.reddit.com/r/waymo/comments/1l3e1xy/waymo_stops_instantly_for_dogs_people_running/
Natürlich erfasst Waymo die Umgebung Präziser und auch eher verdeckte Objekte.
/dev/NULL
2025-06-05, 13:21:22
Viper;13767266']Das ist ja das Problem von Lidar. Es erstellt ein komplexes 3D-Bild aber das Bild wird dann nach ganz einfachen Regeln analysiert.
FSD arbeitet da ganz anders.. eher wie unsere Augen. FSD "versteht" was es da sieht.. ein LIDAR Auto nicht wirklich.
Deswegen bin ich mittlerweile auch der Meinung, dass FSD der richtige Weg ist. Vor ein paar Jahren war ich mir da nicht sicher.
Das Problem was Tesla hat ist aber, dass es mittlerweile so viele Autos auf der Straße mit FSD und "Autopilot" hat, dass natürlich auch die Anzahl der Zwischenfälle höher ist als bei einer Flotte von 1500-2000 Fahrzeugen (Waymo).
In der Wahrnehmung der Menschen bleibt dann aber nur, dass FSD mehr Zwischenfälle hat als andere Systeme. Der Zusammenhang mit den Anzahl der Fahrzeugen und der Anzahl an gefahrenen KM pro Zwischenfall wird erstmal gar nicht bedacht.
Somit entsteht ein völlig verzerrtes Bild von FSD in der Öffentlichkeit.
Naja der Unterschied ist das Waymo FSD fährt und Tesla "nur supervised" d.h. solange das so ist und der User eingreifen kann/muss soll sind die Zahlen eh wenig vergleichbar.
Ob die "FSD geht mit allen Autos, mit allen Autos mit HW2,3,4,x" Aussagen zu halten sind wird sich dann auch noch zeigen.
Ich finde die FSD Videos beeindruckend, aber das sind sicherlich eher die "Bestcase" Videos und nicht die 5%, 1%, 0,5%, 0,001% wo es zum Unfall oder ähnliches gekommen wäre. Jedes "ich muss ans Lenkrad greifen oder Bremsen" ist potentiell im FSD ein Schaden/Unfall/Todesfolge.
Weil wenn dich dein FSD Auto an nur einem Tag des Jahres umbringen will ist das immer noch zu viel.
Hat auch viel mit der verwendeten FSD Version zu tun.
Wenn du dir ältere FSD Videos mit V11 und älter anguckst, war es so schlecht, dass es keiner wirklich genutzt hat. Ab V12 hat sich das stark geändert. Jedes weitere Update wird es noch besser machen.
/dev/NULL
2025-06-05, 15:00:06
Garkeine Frage. es ist massiv besser geworden, aber 2000km statt 200 ohne Eingriff ist immer noch zu wenig und ob die Verbesserung in dem Maße weitergeht ist nicht klar.
Sieht man bei LLMs ja auch: die ersten evolutionären Steps waren gigantisch, die letzten trotz mehr Rechenzeit/HW im 10 Potenzbereich sind die Ergebnisse nicht um den Faktor 10 besser sondern eher "ein paar Prozent" -> Halluzinationen gibt es da immer noch.
Überträgt man das auf FSD wirds da irgendwann auch nur noch gradual besser und Randbereich gehen immer noch schief - was halt bei "Es bewegt sich mit 120km/h" ggf fatal ist
Ja, als Elon vor Jahren FSD angekündigt hatte, wollte er auch noch nicht so gewaltige Rechenzentren bauen. Da gab es unterwegs wohl einige Erkenntnisse. :freak:
dreamweaver
2025-06-16, 20:35:41
Tesla’s FSD Runs Over Child Mannequin, But It’s Not To Blame
...
As you can see in the clips, a Tesla Model Y with the latest version of Full-Self Driving was subjected to a test where a school bus is stopped with its flashing lights and stop signs activated. A child-sized mannequin is then pulled across the street to replicate a kid attempting to catch the school bus.
The test was conducted eight times and The Dawn Project said, “Full Self-Driving ran down the child mannequin while illegally blowing past the school bus on every single” attempt. They added, “Tesla’s Full Self-Driving software did not disengage or even alert the driver to the fact there had been a collision on any of the test runs.”
https://www.carscoops.com/2025/06/teslas-fsd-botches-another-test-but-its-not-to-blame/
FSD, Voll Selbstfahrend (Aber-nicht-so-richtig [supervised])
Also im Prinzip wie ein Fahrlehrer, der ständig aufpassen muss um einzugreifen, falls der Fahrschüler einen Fehler machen sollte. Klingt fast anstrengender als selbst zu fahren.
[dzp]Viper
2025-06-16, 22:22:55
https://www.carscoops.com/2025/06/teslas-fsd-botches-another-test-but-its-not-to-blame/
FSD, Voll Selbstfahrend (Aber-nicht-so-richtig [supervised])
Also im Prinzip wie ein Fahrlehrer, der ständig aufpassen muss um einzugreifen, falls der Fahrschüler einen Fehler machen sollte. Klingt fast anstrengender als selbst zu fahren.
Dieser Test ist die totale Verblödung gewesen. Kein System der Welt und auch kein Fahrer der Welt hätte da anhalten oder reagieren können wenn 3m vor der Linie das "Kind" mit hoher Geschwindigkeit aus den toten Winkel gezogen wird.
Müssen die Autos in den USA anhalten wenn auf der Gegenfahrbahn ein Bus steht mit dem "Stop" Zeichen? Dachte das gilt nur für die Auto die in die gleiche Richtung fahren wie der Bus?
Schön wäre gewesen wenn der Tesla den Bus erkannt hätte und zumindestens die Geschwindigkeit zur Sicherheit reduziert hätte.
/edit: Im Video ist aber auch zu sehen, dass das Fahrzeug versucht zu bremsen?! Also macht das Fahrzeug doch das, was es in der kürze der Zeit machen kann.. oder nicht?
/edit2: Ja laut Verkehrsregeln USA hätte der Tesla beim Bus anhalten müssen so lange die Stop-Schilder ausgefahren sind.
TheCounter
2025-06-17, 02:00:17
Das The Dawn Project war doch dieses Projekt, dass sich zum Ziel gesetzt hat, Tesla mit aller Macht schlecht dastehen zu lassen. Also von daher.
Das einzige valide Argument: FSD beachtet die Stopp Schildern an Schulbussen aktuell nicht richtig. (Warum ist es wohl immer noch supervised?)
Das mit dem überfahrenen Kinder-Dummy soll natürlich ein massives Drama für die Medien daraus machen. :rolleyes:
dreamweaver
2025-06-17, 11:03:31
Das einzige valide Argument: FSD beachtet die Stopp Schildern an Schulbussen aktuell nicht richtig. (Warum ist es wohl immer noch supervised?)
Immerhin wurde diese Fehlerquelle offengelegt. (sofern sie das vorher noch nicht war)
/dev/NULL
2025-06-17, 15:12:41
Ach in Austin das wird ein voller Erfolg. wer braucht schon ein paar Schulkinder.. das behebt man dann in einem zukünftigen Update vielleicht.
Ein oder zwei solche Vorfälle und Tesla kann sich beerdigen. In US of A würden die (zurecht?) in Grund und Boden geklagt werden.
[dzp]Viper
2025-06-17, 15:56:49
Ach in Austin das wird ein voller Erfolg. wer braucht schon ein paar Schulkinder.. das behebt man dann in einem zukünftigen Update vielleicht.
Ein oder zwei solche Vorfälle und Tesla kann sich beerdigen. In US of A würden die (zurecht?) in Grund und Boden geklagt werden.
Ich bin auch gespannt. Aber ich gehe davon aus, dass die Software für diese autonomen Taxis sehr defensiv fahren wird.
Aber das Ding ist ja, dass ein vollständig selbstfahrendes Auto trotzdem nicht jeden Unfall vorhersehen und verhindern kann. Es gibt einfach Situationen wo die Physik das unmöglich macht (z.B. wenn ein Kind 3m vor dem Auto auf die Straße springt). Einfach wegbeamen kann sich selbst der beste Autopilot nicht :ugly:
Es wird also Unfälle geben.. das ist einfach so. Es muss aber in die Köpfe der Menschen rein, dass so ein System, wenn es gut funktioniert, zig andere Unfälle verhindern kann. Wenn die Medien aber jeden kleinen Zwischenfall (sogar die ohne Personenschäden) sofort tausendfach aufpusten, dann entsteht auf Dauer ein falscher Eindruck.
Man wird also sehen wie sich Teslas Taxis am Ende schlagen. Spannend wird es auf alle Fälle. Könnte ja auch passieren, dass nach 4 Wochen erstmal Schluss ist weil doch zu viel passiert ist.
/dev/NULL
2025-06-17, 16:46:52
Das es Unfälle gibt wenn jemand mit 50 von Links angeflogen kommt: klar.
Aber wenn es Unfälle gibt weil Tesla "irgendeine Standardregel" nicht gelernt hat.. (so wie Schulbus mit Stopschild") dann ist das halt kacke.
Der hätte da doch garnicht fahren/überholen/passieren dürfen und tut es trotzdem.
TheCounter
2025-06-17, 17:51:27
Lässt sich beim Tesla ja zum Glück per Softwareupdate ausbessern, sogar kostenlos (sorry, kleine Anspielung auf Mercedes :ugly: ).
/dev/NULL
2025-06-17, 20:30:50
Mercedes hat aber nicht den Anspruch FSD zu haben
Kalmar
2025-06-18, 00:50:52
VW mit ID.buzz ad laut plan ab 2026 live in dem USA und Deutschland im Einsatz.
Demo gab es heute.
https://www.handelsblatt.com/unternehmen/industrie/autonomes-fahren-volkswagen-zeigt-sein-erstes-serienreifes-robotaxi/100134096.html
registrierter Gast
2025-06-19, 10:08:00
In diesem Videobericht dazu wird von 2027 berichtet.
KX9Y4stS76s
https://youtu.be/KX9Y4stS76s
Kalmar
2025-06-22, 11:14:55
In diesem Videobericht dazu wird von 2027 berichtet.
https://youtu.be/KX9Y4stS76s
https://youtu.be/KX9Y4stS76s
Glaube 1000 2026 Rest 2027. aber je mach Bericht auch etwas anders ausgedrückt. Aber mit 2026 meinen sie bestimmt auch 4. Quartal.
MasterElwood
2025-06-23, 00:42:40
And so it begins....
https://youtu.be/yXv5xz0bHYQ?si=CjyZS1U2o_1c4tyf
Bin gespannt, wie schnell sie den Bereich erweitern. Der erste Start war ja auf einem sehr kleinen Areal.
Ansonsten super langweilig, was ja auch gut ist. ;-)
MasterElwood
2025-06-23, 12:07:55
Dirty Tesla
https://youtu.be/lBcnJVTKP9c?si=2jOzteqQwC1ahBmx
/dev/NULL
2025-06-23, 12:21:25
Parkt auf der Abbiegespur jo guter Start
https://www.golem.de/news/cybercab-teslas-robotaxi-dienst-startet-mit-gemischten-ergebnissen-2506-197351.html#cmts
Viper;13773160']Aber das Ding ist ja, dass ein vollständig selbstfahrendes Auto trotzdem nicht jeden Unfall vorhersehen und verhindern kann. Es gibt einfach Situationen wo die Physik das unmöglich macht (z.B. wenn ein Kind 3m vor dem Auto auf die Straße springt). Einfach wegbeamen kann sich selbst der beste Autopilot nicht :ugly:
Es wird also Unfälle geben.. das ist einfach so. Die entscheidende Frage ist, ob in dem von Dir geschilderten Fall ein guter menschlicher Autofahrer den Unfall hätte verhindern können - Stichwort angepasste Fahrweise / Geschwindigkeit, weil eben schon im Vorfeld die unberechenbaren Kinder registriert werden. Das ist doch einer der Standardfälle einer jeden theoretischen Fahrprüfung. Ein 'Learning by Doing" - oder "Crashing & Dying" wird hoffentlich nicht Teslas Strategie sein. Ansonsten hätten sie firmengefährdende Klagewellen verdient.
[dzp]Viper
2025-06-23, 13:06:25
Parkt auf der Abbiegespur jo guter Start
https://www.golem.de/news/cybercab-teslas-robotaxi-dienst-startet-mit-gemischten-ergebnissen-2506-197351.html#cmts
Das ist halt das "Problem" des FSD.. es orientiert sich an dem Verhalten von Menschen und übernimmt damit auch hier und dort ziemlich dämliche Angewohnheiten.
War damals genau das gleiche bei der Kreuzung mit dem Stopschild. Das System hat erkannt, dass nichts von der Seite kommt, hat etwas abgebremst aber eben nicht gestoppt und ist danach direkt über die Kreuzung gefahren. Das machen die Menschen ständig so...
Dieses Verhalten wurde FSD danach abtrainiert. Genauso wie es wohl nun mit dem Parken auf der Abbiegespur passieren wird.
Kritischer sehe ich da eher die Situation wo das Robo-Taxi links abbiegen wollte, sich mittem im Abbiegevorgang umentschieden hat und dann über die Gegenfahrbahn wieder zurück fährt. Das ist definitiv nicht in Ordnung :ugly:
[dzp]Viper
2025-06-23, 13:08:52
Die entscheidende Frage ist, ob in dem von Dir geschilderten Fall ein guter menschlicher Autofahrer den Unfall hätte verhindern können - Stichwort angepasste Fahrweise / Geschwindigkeit, weil eben schon im Vorfeld die unberechenbaren Kinder registriert werden. Das ist doch einer der Standardfälle einer jeden theoretischen Fahrprüfung. Ein 'Learning by Doing" - oder "Crashing & Dying" wird hoffentlich nicht Teslas Strategie sein. Ansonsten hätten sie firmengefährdende Klagewellen verdient.
Definitiv. Aber mal realistisch gesehen, wieviele menschliche Fahrer würden in so einer Situation abbremsen? Wie hoch ist die Wahrscheinlichkeit, dass der Fahrer nicht abbremst?
Aber ja ich stimme dir zu. Diese Erkennen einer Gefahrensituation hat bei FSD für diese Szene nicht gereicht. Da diese Szene aber durch die Medien ging wird genau diese Situation dem FSD jetzt eingehämmert und mit der nächsten Version wird FSD dann wohl deutlich besser reagieren.
Ein 'Learning by Doing" - oder "Crashing & Dying" wird hoffentlich nicht Teslas Strategie sein. Ansonsten hätten sie firmengefährdende Klagewellen verdient.
Es ist mit Sicherheit nicht die Hauptstrategie. Ein gewisser Grad an "Crashing & Dying" ist aber auch nicht komplett von der Hand zu weisen.
Diese Systeme müssen genauso lernen und ausgebildet werden wie ein menschlicher Fahrer. Bis zu einem gewissen Grad ist das in einer abgeschotteten Umgebung möglich (Teststrecken, ...) aber es kommt ein Punkt wo man eben doch den realen Verkehr braucht. Man kann in Testszenarien eben nicht alles abdecken. In Testszenarien werden vielleicht 98-99% abgedeckt und der Rest muss, wohl oder übel, über Echtzeitdaten vom realen Straßenverkehr realisiert werden.
Waymo und co. haben genau das gleiche Problem, genau deswegen gibt es ja die Testläufe.
Metzler
2025-06-23, 13:21:10
Das entspricht in etwa dem, was ich erwartet habe: Ungenauigkeiten, gefährliche Situationen + der "Sicherheitsbeifahrer" (das war mir bis dato nicht bewusst dass der dabei ist). Frag mich, was genau der machen kann / muss / welche Eingriffsmöglichkeiten er hat. Vertrauenserweckend klingt das aber bisher alles nicht. Und: Natürlich eingeschränkt auf nur gutes Wetter... Wird bestimmt massiv skalieren in den nächsten Monaten ;)
[dzp]Viper
2025-06-23, 13:31:11
Das entspricht in etwa dem, was ich erwartet habe: Ungenauigkeiten, gefährliche Situationen + der "Sicherheitsbeifahrer" (das war mir bis dato nicht bewusst dass der dabei ist). Frag mich, was genau der machen kann / muss / welche Eingriffsmöglichkeiten er hat. Vertrauenserweckend klingt das aber bisher alles nicht. Und: Natürlich eingeschränkt auf nur gutes Wetter... Wird bestimmt massiv skalieren in den nächsten Monaten ;)
Waymo ist 1:1 genauso gestartet. Damals war das völlig in Ordnung. Bei Tesla jetzt nicht?
Natürlich skaliert man das nach und nach. Tesla wäre schön dumm direkt mit 1000+ Fahrzeugen, ohne "Sicherheitsbegleiter" und ohne abgesteckte Zone loszulegen. Auch bei Tesla ist man sich bewusst, dass das selbst diese erste Versuch ein gewisses Risiko beinhaltet - also geht man vorsichtig vor. Ist das nicht das, was sonst gefordert wird?
Aber ja, die Frage was der "Sicherheitsbegleiter" im Fall des Falles machen kann, habe ich mir auch gestellt. Hat der vielleicht auch ein Bremspedal, wie bei einem Fahrschulauto? Dazu konnte ich bisher nichts lesen
[dzp]Viper
2025-06-23, 13:37:02
Achso... und noch was:
FSD in Berlin... schon krass wie gut (nicht perfekt) das funktioniert
https://insidetesla.de/fsd-in-deutschland-tesla-testet-autonome-fahr-software-in-berlin/
Nsmz5grGnU8
Metzler
2025-06-23, 13:49:34
Viper;13775372']Waymo ist 1:1 genauso gestartet. Damals war das völlig in Ordnung. Bei Tesla jetzt nicht?
Ich habe nichts dazu gefunden, dass Waymo in 2022 Safety-Drivers / Co-Drivers im Auto hatte..? Hast Du einen Link dazu?
[dzp]Viper
2025-06-23, 14:18:21
Ich habe nichts dazu gefunden, dass Waymo in 2022 Safety-Drivers / Co-Drivers im Auto hatte..? Hast Du einen Link dazu?
Leider nicht. Kann mich aber noch daran erinnern, dass ganz am Anfang Leute mit im Fahrzeug waren die das überwacht haben. Wie lange das so war, weiß ich aber nicht.
Kurz danach hat Waymo aber auf Remote-Überwachung gewechselt. Das heißt ein Remote-Fahrer hat die ganze Zeit zugeschaut und konnte im schlimmsten Fall eingreifen.
Mittlerweile gibt es bei Waymo noch die Remote-Hilfe. Wenn ein Fahrzeug mit Fahrgast Probleme hat, kann der Fahrgast den Remote-Service kontaktieren und ein Remote-Fahrer kann dem Fahrgast dann wohl helfen. Wobei Waymo mittlerweile sagt, dass in der aktuellen Generation der Fahrzeuge keine "Remote-Steuerung" mehr eingebaut haben.
Jede Firma die Autonomie entwickelt skaliert ihre Tests. Alles andere wäre Selbstmord, auch für Tesla.
/edit:
Das mit den Sicherheitspersonen im Fahrzeug war 2017 zuende. Ab dann waren die Fahrzeuge Fahrerlos (laut Wikipedia)
https://de.wikipedia.org/wiki/Waymo#Testfahrten
Viper;13775350']
Kritischer sehe ich da eher die Situation wo das Robo-Taxi links abbiegen wollte, sich mittem im Abbiegevorgang umentschieden hat und dann über die Gegenfahrbahn wieder zurück fährt. Das ist definitiv nicht in Ordnung :ugly:
War ja nur ganz kurz drauf, weil es direkt in die Linksabbiegerspur wollte. Das haben Menschen auch schon mal gemacht. :freak:;)
Ist bekannt, was der Grund für die Umentscheidung war? Hatte noch nichts gesehen.
Viper;13775352']Definitiv. Aber mal realistisch gesehen, wieviele menschliche Fahrer würden in so einer Situation abbremsen? Wie hoch ist die Wahrscheinlichkeit, dass der Fahrer nicht abbremst?Eine richtige Frage wäre auch: Welche (Teil-)Schuld würde ein menschlicher Fahrer für einen solchen Unfall bekommen? Welche bekommt der Fahrzeughersteller des autonom fahrenden Fahrzeugs im Vergleich dazu?
Selbstlernende Systeme schön und gut aber sicher will niemand, dass Tesla (oder welcher Hersteller auch immer) das eigene Kind zu diesem zunächst primär monetär getriebenen Zwecke benutzt (oder tötet*).
*Wortwahl ist Absicht
Milchkanne
2025-06-24, 13:57:52
War ja nur ganz kurz drauf, weil es direkt in die Linksabbiegerspur wollte. Das haben Menschen auch schon mal gemacht. :freak:;)
Ist bekannt, was der Grund für die Umentscheidung war? Hatte noch nichts gesehen.
Wenn ich das richtig gesehen habe, wollte das Navi die ganze Zeit erst bei der zweiten Kreuzung abbiegen. Das Auto ist aber schon eine vorher auf die Abbiegespur und war dann nicht sicher, ob es den Pfeilen oder dem Navi folgen sollte.
[dzp]Viper
2025-06-25, 08:52:42
Es kommen immer mehr Videos zum Tesla-Robotaxis und auch Vergleichsvideos zu Waymo.
Interessant ist nun, dass während der Vergleichsfahrten die Waymo Taxis auch regelmäßig Probleme haben.
- Boardstein überfahren
- gegen Poller gefahren
- Kleiner Auffahrunfall ohne bleibende Schäden
- ...
Viele Kleinigkeiten die jetzt doch zeigen, dass Waymo nicht so gut funktoniert wie bisher angenommen. Das kommt jetzt vermehrt da die Waymo-Taxis durch das Robotaxi auch viel stärker im Fokus gerückt sind.
Im Vergleich soll die Fahrt im Tesla-Robotaxis auch deutlich angenehmer sein. Das Tesla-Taxi fährt deutlich "runder". Es gibt weniger harte Brems- und Lenkmanöver im Vergleich zum Waymo-Taxi.
Das eine Video wo das Tesla-Robotaxi fast doppelt zu schnell gefahren ist hat sich auch aufgeklärt. Auf der Straße waren 35miles/h Limit und nicht 20 miles/h. Die Anzeige auf dem Tesla-Monitor hat nur schon die Geschwindigkeitsbegrenzung für die nächste Straße (nach dem Abbiegen) angezeigt.
Finde ich auch interessant, dass sich offenbar vorher nicht so viele für Waymo interessiert haben.
Jetzt vergleichen die ganzen Tesla YouTuber erst mal so richtig. :freak:
arcanum
2025-06-25, 14:54:26
Liste an Fuckups nach lediglich 3 Tagen mit 10 Fahrzeugen:
https://www.reddit.com/r/SelfDrivingCars/comments/1ljxd63/list_of_clips_showing_teslas_robotaxi_incidents/
Darunter ein Clip, wo die Rücklichter nicht richtig interpretiert werden - etwas, das mir in den letzten Jahren immer wieder aufgefallen ist. Tesla zeigt Bremslicht anstatt Blinker oder gar nichts an. Dachte, man hätte das wenigstens bei den FSD Versionen in den USA gefixt aber anscheinend ist die Erkennung weiterhin überall unzuverlässig.
Man sieht, dass Tesla FSD noch jahrelang vom sicheren Betrieb entfernt ist. Ohne Beifahrer hätte es wahrscheinlich mehr Unfälle als Fahrzeuge auf der Straße gegeben.
Milchkanne
2025-06-25, 16:33:08
Liste an Fuckups nach lediglich 3 Tagen mit 10 Fahrzeugen:
Schon spannend. Ich hab mir jetzt nicht viel angeguckt. Das sind ja weitgehend Leute, die FSD schon kennen oder? Haben die ihren Eindruck dazu irgendwie beschrieben, ob das besser ist als normales FSD?
Die nächste FSD Version lässt ja sehr lange auf sich warten.
Für mich sieht es so aus, als würde Robotaxi auch noch auf FSD V13 laufen. Vielleicht ein kleineres Update verglichen zu dem, was die Leute so bei den privaten Autos haben.
Die Unterschiede im Fahrverhalten sind jedenfalls sehr gering.
Godmode
2025-06-28, 07:55:08
Erste autonome Lieferung eines Autos bei Tesla, nice.
https://x.com/Tesla/status/1938816477127418224
TheCounter
2025-06-28, 09:19:03
Schon irre irgendwie, dachte da sitzt auch noch einer neben dran, aber da ist ja wirklich keiner mehr im Auto.
Metzler
2025-06-28, 10:09:23
Interessant, ja. Ich frag mich wie das zu den Zwischenfällen beim autonomen Taxi-Service in Austin passt? Ist das ein "Einmal"-Ding, bei dem viele zusätzliche Sachen im Hintergrund gemacht wurden (z.B. evtl. hochauflösende Karten, eine spezielle Low-Risk-Strecke, etc.)?
Tintenfisch
2025-06-28, 19:39:14
Schon irre irgendwie, dachte da sitzt auch noch einer neben dran, aber da ist ja wirklich keiner mehr im Auto.
Gibt doch kein Video sondern hat lediglich Elon gepostet. Gerne das Fahrzeug über den Freeway zum Kunden am anderen Ende von LA?
Gibt doch kein Video sondern hat lediglich Elon gepostet.Hmm? :uponder:
Lang (Full)
lRRtW16GalE
Kurz:
GU16hXSSGKs
Schon irre irgendwie, dachte da sitzt auch noch einer neben dran, aber da ist ja wirklich keiner mehr im Auto.
Ich hätte auch mehr Sicherheitsvorkehrungen erwartet.
Vermutlich haben Sie aber die Strecke zumindest 10x gescoutet und vielleicht ist sogar ein für die Strecke optimierte FSD Build im Auto installiert gewesen.
MasterElwood
2025-06-28, 22:38:54
Ich hätte auch mehr Sicherheitsvorkehrungen erwartet.
Vermutlich haben Sie aber die Strecke zumindest 10x gescoutet und vielleicht ist sogar ein für die Strecke optimierte FSD Build im Auto installiert gewesen.
Ich find erstaunlich dass sie eine Genehmigung dafür bekommen haben. Oder braucht man dafür keine?
Bestimmt hatte das ausgelieferte Auto schon eine neuere FSD Version.
Bei den Robotaxi Tests geht es ja auch darum die Platform und die App etc. zu testen und die machen das schon mal parallel.
Simon Moon
2025-07-05, 14:49:06
Hier mal was von Nvidia (dem Tshirt nach). Er redet zwar von Robotern, aber in dem Sinne sind das Autos natuerlich genauso:
pdV9eaLy--E
Haben aktuelle Assistenz-Systeme bereits sowas in einer Form eingebaut? Also nicht einfach ein ML Algorithmus, der nun Voegel oder Fussgaenger auf einem Video erkennt, sondern eben so ein Basismodel, dass sich eine Vorstellung von der Welt bildet.
Hat hier schonmal jemand OpenPilot erwähnt? Comma.ai (https://comma.ai) hat inzwischen den Comma three veröffentlicht. Ein Smartphone ähnliches Gerät, was mit Kameras ausgestattet sich in das CAN Netzwerk des Autos einklinkt und dann das Auto steuern kann. Für ~2500$ nachrüstbar für über 100 Autos.
Der Comma two ist schon einige Zeit verfügbar und funktioniert anscheinend beeindruckend gut.
COMMA.AI im Test bei LTT :D
xdmxM-v4KQg
Hier mal was von Nvidia (dem Tshirt nach). Er redet zwar von Robotern, aber in dem Sinne sind das Autos natuerlich genauso:
https://youtu.be/pdV9eaLy--E
Haben aktuelle Assistenz-Systeme bereits sowas in einer Form eingebaut? Also nicht einfach ein ML Algorithmus, der nun Voegel oder Fussgaenger auf einem Video erkennt, sondern eben so ein Basismodel, dass sich eine Vorstellung von der Welt bildet.
Soweit ich weiß, nur bei Teslas FSD (ab V12). Ist mMn. der Grund, warum das auch auf nicht markierten und unbekannten Feldwegen fahren kann und aus Parkhäusern ohne GPS und Empfang herausfindet.
Es werden aber immer noch mehrere ML Schichten zusammen mit dem allgemeinen "Fahrer Basismodel" genutzt, um die Klassifizierung von Objekten zu vereinfachen, Abstände zu berechnen, 2D->3D space transformation etc.
Die große Herausforderung scheint aber zu sein, dass es auf einem 300W Rechner im Auto läuft und man das Modell schon sehr gezielt eindampfen muss, damit die Resourcen ausreichen.
MasterElwood
2025-07-15, 08:57:23
Tesla hat den Robotaxi Service Bereich erweitert.
Er ist jetzt GRÖßER als der von Waymo. Nach 3 Wochen. Waymo ist dort seit 6 Monaten.
Und Elon wäre nicht Elon würde er nicht sogar Spaß in einem Geofence finden
https://imgur.com/a/2EZxWp1
Tobalt
2025-07-15, 09:27:58
COMMA.AI im Test bei LTT :D
https://youtu.be/xdmxM-v4KQg
Offensichtliche Fake News sind offensichtlich weil es unmöglich ist, ein Auto nur auf Basis visueller Eindrücke aus dem Innenraum zu steuern 1111
Allerdings finde ich 2500 nur für den Spurassi + Abstandstempomat leider nicht überzeugend.
Wenn es richtig nützlich sein soll, *MUSS* es auch Navigation beherrschen. Selbst wenn es nur außerorts funktionieren würde, wäre es eine riesiege Erleichterung. Innerorts ist autofahren ja auch nicht so ermüdend und trist.
Wenn ich das richtig sehe: https://comma.ai/shop
Sind es aktuell nur 999$ + Wechselkurs + Zoll. Am 04.07 gab es sogar eine 20% Aktion im Web-Shop. Ich bin den Vorgänger der COMMA 3x und OpenPilot vor etwa ~3 Jahren mal im Prius (GEN4) gefahren. :smile:
Der COMMA 3x ist mitlerweise sogar zum Model 3/Y kompatibel mit vollem Funktionsumfang. Wenns mit Hardware 3 und FSD nichts mehr wird, wäre das eine Ausweichmöglichkeit den Standard-AP abzulösen.
grobi
2025-07-15, 10:57:11
Tesla hat den Robotaxi Service Bereich erweitert.
Er ist jetzt GRÖßER als der von Waymo. Nach 3 Wochen. Waymo ist dort seit 6 Monaten.
Und Elon wäre nicht Elon würde er nicht sogar Spaß in einem Geofence finden
https://imgur.com/a/2EZxWp1
Musk hat halt die Reife eines 6 jährigen und seine Jünger folgen ihm blind.:freak:
Weis ja nicht, was ihr da seht, ich sehe da ein Tesla Logo, welches auf dem Kopf steht. :ueye:
Metzler
2025-07-15, 17:13:52
Tesla hat den Robotaxi Service Bereich erweitert.
Er ist jetzt GRÖßER als der von Waymo. Nach 3 Wochen. Waymo ist dort seit 6 Monaten.
Und Elon wäre nicht Elon würde er nicht sogar Spaß in einem Geofence finden
https://imgur.com/a/2EZxWp1
Größer hinsichtlich welcher Einheit? Geographische Fläche? Anzahl Autos? Anzahl Autos mit supervised Fahrern? Echte unsupervised Autos?
Größer hinsichtlich welcher Einheit? Geographische Fläche? Anzahl Autos? Anzahl Autos mit supervised Fahrern? Echte unsupervised Autos?
Geographische Fläche? -> Ja
Anzahl Autos? -> von ~10 auf ~35
Anzahl Autos mit supervised Fahrern? -> es gibt sind nur Beifahrer!
Echte unsupervised Autos? -> unverändert
MasterElwood
2025-07-15, 18:36:03
Geographische Fläche? -> Ja
Anzahl Autos? -> von ~10 auf ~35
Anzahl Autos mit supervised Fahrern? -> es gibt sind nur Beifahrer!
Echte unsupervised Autos? -> unverändert
Die FLÄCHE ist das einzig wichtige. Wenn EIN Tesla in einem Gebiet operieren kann/darf - können es auch 100.000 (da es von der Stange Y sind nur mit Robotaxi Software). In dem Moment wo der Safety Passenger wegfällt (was voraussichtlich in den nächsten Wochen passieren wird) - kann Tesla Autos reinpacken sowiel wie Platz haben.
Genehmigung für voll Autonom dürften sie schon haben (sonst dürften sich die Teslas nicht selbst liefern).
Metzler
2025-07-15, 20:25:21
Die FLÄCHE ist das einzig wichtige. Wenn EIN Tesla in einem Gebiet operieren kann/darf - können es auch 100.000 (da es von der Stange Y sind nur mit Robotaxi Software). In dem Moment wo der Safety Passenger wegfällt (was voraussichtlich in den nächsten Wochen passieren wird) - kann Tesla Autos reinpacken sowiel wie Platz haben.
Genehmigung für voll Autonom dürften sie schon haben (sonst dürften sich die Teslas nicht selbst liefern).
Seit wann ist die Fläche das Wichtigste? Das Ding soll doch autonom fahren können. Insofern ist das das Wichtigste - die Fläche folgt der Verlässlichkeit hinsichtlich dem autonom fahren, nicht umgekehrt...
Wo steht, dass die Beifahrer demnächst entfallen?
MasterElwood
2025-07-15, 20:33:10
Seit wann ist die Fläche das Wichtigste? Das Ding soll doch autonom fahren können. Insofern ist das das Wichtigste - die Fläche folgt der Verlässlichkeit hinsichtlich dem autonom fahren, nicht umgekehrt...
Wo steht, dass die Beifahrer demnächst entfallen?
Größeres Betriebsgebiet = Größeres Gebiet wo autonom zuverlässig funktioniert. Is ja genau der Punkt.
Angeblich wollen sie bis Ende Sommer auf 1000 RT kommen. Das würde es nicht spielen mit 1000 Leuten am Beifahrersitz. 😂
Milchkanne
2025-07-15, 22:15:30
Wenn ich das richtig sehe: https://comma.ai/shop
Sind es aktuell nur 999$ + Wechselkurs + Zoll.
+99$ für den harness
Macht momentan 1128$ +19% Einfuhrsteuer sind 1156€.
Im Angebot waren es nur 951€ inkl Steuer und Versand. Klar, man benötigt ohnehin schon ACC und LKAS. Aber finde ich ansonsten absolut nicht mehr teuer.
Navigation war ja experimentell schonmal dabei. Aber das ist momentan wieder raus. Die wollen erstmal das driving modell weiter verbessern.
In dem Moment wo der Safety Passenger wegfällt (was voraussichtlich in den nächsten Wochen passieren wird) - kann Tesla Autos reinpacken sowiel wie Platz haben.
Ich bin da nicht so optimistisch. Rechne mit 6-12 Monaten bis das passiert.
MasterElwood
2025-07-15, 23:12:58
Ich bin da nicht so optimistisch. Rechne mit 6-12 Monaten bis das passiert.
Nah. Die sind weg Ende August. In der NÄCHSTEN Stadt tauchen sie vieleicht am Anfang wieder auf.
https://i.makeagif.com/media/10-20-2024/LsdXMV.gif
Tobalt
2025-07-16, 06:07:33
Da dies die von Menschen bewohnte Erde ist: Ich kann mir vorstellen dass die Firmen Passanten bezahlen, damit sie kurz vor die Autos der anderen Firmen springen und unvermeidbare Unfälle provozieren. Dies sollte die Zulassungsprozesse weiter verlangsamen
MasterElwood
2025-07-16, 10:00:47
Da dies die von Menschen bewohnte Erde ist: Ich kann mir vorstellen dass die Firmen Passanten bezahlen, damit sie kurz vor die Autos der anderen Firmen springen und unvermeidbare Unfälle provozieren. Dies sollte die Zulassungsprozesse weiter verlangsamen
Diese Art von Scamms scheitert schon an normalen Dashcams.
Bei einem Robotaxi hast du Videos von mehreren Winkeln wie er vors Auto hüpft PLUS die genauen Daten wie (korrekt) das Auto gefahren ist vorm/beim Unfall.
Mit sowas kommst du nicht weit :biggrin:
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.