Koordinaten auf einem Bildschirm berechnen von 1440p zu 1080p?
Servus, ein Kollege hat ein (sehr sehr langes) Macro geschrieben, welches gewisse Abläufe in einem Spiel Automatisiert. Da wir viele Accounts haben, wollte ich einen alten Laptop dafür nutzen. Er hat die Koordinaten von seinem 1440p screen genutzt um Mausklicks an bestimmten Stellen zu simulieren. Da ich nur 1080p habe stimmen die Koordinaten nicht. Das Macro Programm hat jedoch die Funktion alle Koordinaten mithilfe einer verschiebung auf der X und Y Achse zu verschieben. Meine Frage ist, wie berechne ich die genauen Koordinaten, die ich jetzt im Verhältnis zu 1440p brauche. Vielleicht ist jemand in Mathe gut genug um es mir zu erklären. :)
1 Antwort
![](https://images.gutefrage.net/media/user/JanaL161/1716555203844_nmmslarge__0_0_2048_2048_71586e8de8345deabd12aee0a9922900.webp?v=1716555204000)
Verschiebung (https://de.wikipedia.org/wiki/Parallelverschiebung) reicht nicht aus, um die Koordinaten zu korrigieren.
Sonst würde ich die Koordinaten zunächst in das Intervall von 0 bis 1 abbilden (geteilt durch 1440) und dann nach 1080p (mal 1080). Das Gleiche geht natürlich auch in einem Schritt, was auch die Genauigkeit erhöhen kann (hier mal 0.75 (von 1080/1440)). Da 1440p eine Familie von Auflösungen ist (https://en.wikipedia.org/wiki/1440p), kann ich keine genauen Zahlen für die X-Achse angeben; die Methode ist aber die gleiche.