VGA-Anschluss soll schon bald aussterben

    • Offizieller Beitrag

    Naja wird auch Zeit :)
    IDE und PS2 sind auf referenzboards ja auch schon nicht mehr. Grakas haben ihn schon Jahre nicht mehr nativ...


    aber Monitore wären noch Hergestellt mit VGA. Es gibt sogar noch welche mit nur VGA. Das ist schon merkwürdig..aber wohl günstiger.

  • Ich versteh nur nit wie es günstiger sein kann einen zusätzlichen "A/D-Wandler" mit zu verbauen, wenn man doch statt dessen direkt das digitale Signal verarbeiten könnte... :rolleyes:


    In den Anfängen von DVI war die Version die nur den DVI-Anschluss hatte ganze 100€ (oder warens DM? ;D) günstiger als die mit beiden Anschlüssen und das bei nem 15" Monitor.


    Das doch alles Augenwischerei.

    Meine System:
    Intel X58||Core I7-950||Geforce 970GTX||OCZ DDR3-1600 3x6GB||
    Creative SB-Z||Samsung 850 EVO 120GB (SATA3)||WD-RED 3TB (SATA2)||Seagate Barracuda 320GB (SATA2)||Logitech G700s ||Logitech G910

    Einmal editiert, zuletzt von Slugger ()

  • Adapter -> Qualitätsverlust. Warum sollte ich ein Signal analogisieren digitalisieren, analogisieren, wenn ich direkt das analoge direkt übertragen kann?


    Ich denke nicht, dass VGA bald aussterben wird. 80% der "professionelleren" Hardware in Betrieb besitzt und nutzt noch einen VGA-Port, schlichtweg weil das Zeugs zuverlässig und in Betrieb ist, grade im mil. und finanziellen Bereich wirst du noch massenweise sowas finden - und solange diese Geräte in Betrieb sind, läuft auch der VGA-Anschluss weiter ;)

    Gigabyte GA-X58A-OC, Intel i7-980X, 12GB DDR3-RAM 2000Mhz, 2x Geforce GTX480, 1x Geforce 8800GTS, X-Fi Platinum, 3x OCZ-SSD 120GB (Raid0), watercooled


    "Die Welt ist klein, gemein und gnadenlos, und jeder stirbt einsam..."

  • Mjolnir, ach was.. das halte ich für großes Gerücht!


    Wer arbeitet da noch mit mini Monitoren und VGA?!


    Außerdem werden ab 2015 keine (neuen) Grafikkarten/Motherboards mehr mit VGA vertrieben, für die ganz wenigen dann die unbedingt nen vga monitor/anschluss brauchen, gibt es dann noch was.

  • Der Richtige Weg ist ja auch nicht analog direkt zu übertragen sondern digital.


    Die Grafikkarte arbeitet eh nur in nullen uns einsen, also digital. Warum also diese Information verhackstückeln und zu versuchen analog annähernd nen perfekten 0 -> 1 Wechsel zu simulieren wenn man die nullen und einsen auch direkt verschicken kann?

    Meine System:
    Intel X58||Core I7-950||Geforce 970GTX||OCZ DDR3-1600 3x6GB||
    Creative SB-Z||Samsung 850 EVO 120GB (SATA3)||WD-RED 3TB (SATA2)||Seagate Barracuda 320GB (SATA2)||Logitech G700s ||Logitech G910

  • Absolutely right. Ich sage auch nicht, dass es der beste Weg ist. VGA ist störungsanfällig für Interferenzen, erhält durch die Umwandlung einen Signalverlust und um es über längere Strecken zu verlegen, brauchst du speziell geschirmte, fette Kabel.


    Das Problem ist:
    Jeder hat es.


    Ihr behauptet, es arbeitet niemand mehr mit VGA? VGA war der erste weit verbreitete Videostandard, der gleichzeitig simpel zu implementieren, simpel zu nutzen und auch unter extremen Bedingungen noch funktionierte, und das sehr billig. Es gibt noch SO viele aktive Geräte dort draußen, die aktiv VGA nutzen und noch lange Zeit weiterbenutzt werden...
    Wer Minimonitore benutzt? Fang mit simplem Equipment an. Günstige Videoüberwachungsanlagen, Mikroskopkameras, Fernseher. Dann geh die Nahrungskette hoch über industrielle Steuergeräte, die seit 15 Jahren in Betrieb sind und noch die nächsten 20 laufen sollen; weiter über Banken, die für ihre Datenarchive noch Wartungsverträge für die nächsten 20 Jahre haben, chinesische Bauern, die grade ihren ersten alten Homecomputer in Betrieb nehmen, der Cockpit-Suchbildschirm eines amerikanischen Bodenkampfflugzeuges, das derzeit für eine Außerdienststellung 2030 projektiert ist, Überwachungsmonitore in Kernkraftwerken, wo es risky ist, eben mal schnell n System zu tauschen, ... such dir was aus! :)


    Was ich sagen will: der VGA-Standard ist im Home-Bereich vielleicht langsam ersetzt - aber nur, weil eine Reihe großer Hardwarehersteller meint, sie müssten ein neues Süppchen kochen, um besser kopiergeschütztes Material wiedergeben zu können, wird kein Standard ersetzt, der seit 20 Jahren durch die Welt wandert...

    Gigabyte GA-X58A-OC, Intel i7-980X, 12GB DDR3-RAM 2000Mhz, 2x Geforce GTX480, 1x Geforce 8800GTS, X-Fi Platinum, 3x OCZ-SSD 120GB (Raid0), watercooled


    "Die Welt ist klein, gemein und gnadenlos, und jeder stirbt einsam..."