Warum ist die Datenbank am Server deutlich schneller abzurufen als bei Netzwerk PCs trotz Gigabit Leitung?
Hallo Leute,
unsere Praxis (21 Mitarbeiter) steht und fällt mit einer Verwaltungssoftware namens "Theorg". (Basiert noch auf dem steinalten dBase Datenbankmanagementsystem)
Theorg läuft aktuell noch auf einem ~10 Jahre alten Win Server 2003 R2 - dementsprechend läuft das Ganze nicht mehr allzu flott.
Als ich mir das mal genauer angeschaut habe, ist mir aufgefallen, dass die Software direkt am Server teilweise 3x so schnell läuft.
Hier mal ein Vergleich:
Aktion A | Server: 3,2 s | Netzwerk-PC: 7,6 s!
Aktion B | Server: 1,6 s | Netzwerk-PC: 4,8 s
Aktion C | Server: 1,1 s | Netzwerk-PC: 3,3 s
Alle Tests mit deaktiviertem SMB-Signing!
Die Aktionen repräsentieren alltägliche Tasks - ihr könnt euch ja vorstellen wie es ist regelmäßig knapp 8 Sekunden auf die Software zu warten.
Derartige Latenzen dürfe in einem Gigabit Netzwerk meiner Meinung nach nicht auftreten - bevor wir uns also einen neuen Server anschaffen, sollten wir erstmal dieses Problem aus der Welt schaffen.
Beste Grüße, Sven
5 Antworten
ich kenne diesen Mist leider nur allzugut. Das Problem ist, dass die komplette Datenbank (die Datei selber) jedesmal beim starten von TheOrg auf irgendeinem Client, auf eben diesen Client heruntergeladen wird. Der Server, den ihr habt, dient dabei nur als Datenspeicher... Ich habe bei einem Freund, dessen Praxis ich administriere, genau die gleiche Konstellation gehabt. Wir haben jetzt SimpliMed ausgelagert in die Online Version (Citrix Reciver) und den Server ausgetauscht, gegen ein schnelles NAS (Thecus n5550 mit 5 Platten und RAID 5) da dieses NAS eine Gigabit Schnittstelle hat, und der Rest des Netzwerks auch auf Gigabit umgerüstet ist, konnten wir deutliche Geschwindigkeitssteigerungen erziehlen... Warum allerdings so eine Steinzeitversion von Praxissoftware überhaupt noch genutzt wird, ist mir nicht klar - SimpliMed läuft super, warum muss man also TheOrg nutzen - das habe ich bisher nie verstanden... wir hatten den Power Edge 2950 von Dell auch mit Domain und AD und Server 2003. Aber die Domain War nicht wichtig und diene nur der Datensicherheit durch Anmeldung - das kann das NAS aber auch...
ja, ich habe Skype - bin aber heut abend erst wieder erreichbar - so ab 22 Uhr, beim ARK zokken ;)
Das Problem ist leider, dass absolut keine Praxissoftware Theorg auch nur ansatzweise das Wasser reichen kann (leider, leider, leider). Als Außenstehender ist das natürlich mangels Erfahrung schwer zu beurteilen, fakt ist jedoch, dass allein die Abrechnung von Rezepten ein unheimlich komplexer Vorgang ist, der stark von der Software abhängt und allein dabei scheitert es schon bei den meisten Alternativen.
Ich gehe mal davon aus dass dein Freund eine Arztpraxis führt und deshalb Rezepte nur ausstellen und nicht abrechnen muss.
Das Problem ist, dass die komplette Datenbank (die Datei selber) jedesmal beim starten von TheOrg auf irgendeinem Client, auf eben diesen Client heruntergeladen wird.
Ach Du meine Güte. Das ist ja datenbanktechnische Steinzeit - und stammt aus Prä-Client-Server-Zeiten.
Warum allerdings so eine Steinzeitversion von Praxissoftware überhaupt noch genutzt wird, ist mir nicht klar
Naja - man braucht eben keinen dezidierten Server, sondern im Prinzip nur ein Share dafür. Murks ist es trotzdem.
Klassische Ursachen:
- LAN Karte Server überlastet
- DNS Probleme
- defekter Switch und/oder Kabel/Ports
- AV-Schutz / Firewalls
- LAN ausgelastet (z.B. durch Trojaner auf Clients)
Alle :-)
MS Server ist nur leistungsfähig mit funktionalem und korrekt installiertem lokalen DNS. Das ist ein weites Feld, auch wenn die Assistenten einem die Ersteinrichtung am DC weitgehend abzunehmen versuchen. Kann man z.B. simpel mit DCDIAG oder etwas detailreicher über
http://www.microsoft.com/en-us/download/details.aspx?id=5468
testen.
Ich habe die Übertragungsrate zwischen Clients und Server mit jPerf getestet - die Ergebnisse lagen bei knapp 1 Gigabit/s. Kann ich damit DNS Probleme ausschließen?
Nein. jPerf misst nur den Datendurchsatz direkt; DNS kommt dabei AFAICT überhaupt nicht ins Spiel, da jPerf nur direkte IP-Verbindungen testet.
Wurden die Leitungen mal auf durchsatz und Latenz getestet ?
Danach sollte man zumindest wissen ob es an der Verkabelung oder am Server liegt oder gegebenfalls am Client. Am besten auch von verschiedenen Clients testen und vergleichen.
Das kenn ich ebenso nur zu gut. Ursache ist fast immer:
Ein lausiges Datenbankdesign, gemacht von Programmierern, die glauben, eine Datenbank ist nichts anderes als eine Ansammlung von riesigen Tabellen und die ihre Frontends mit IF und THEN programmieren anstatt mit anständigen SELECT Klauseln. ;-)
genau und noch dazu ist das Programm aus der Steinzeit - Design von Win 3.11
Überprüf die Zwischenschritte. Klingt doch logisch. Ist der PC vom Server schnell zu erreichen. Schließ deinen Laptop neben dem Server an und teste die Verbindung
Das Problem habe ich auch mit einer ganz anderen Software
(für Steuerberater) und MS-SQL-Server.
Daher vermute ich weniger Probleme mit der Software als etwas mit dem Netz: DNS-Probleme scheinen mir plausibel. Denn Die Übertragungsrate im Netz liegt bei 50 Megabyte/Sekunde (das sollte reichen).
Was kommen da für DNS-Probleme infrage? Und wie analysiert man das?
Also ich habe mal die "rohen" Übertragungsraten mit jPerf getestet und dabei kam knapp 1 Gigabit/s also ~125MB/s raus, was vollkommen ausreichend sein sollte..
Vielen Dank für deine Antwort! Endlich mal einer der sich mit der Branche auskennt - bist du via Skype zu erreichen?