Posts by taker-`

    Noch eine Info zu dem Stack. Ich habe bei meiner DS720+ nur bedingt RAM. Habe zwar einen 32GB Riegel nachgerüstet, aber die Synology erkennt nur 18GB. Das wusste ich vorher schon. Aber somit habe ich viel mehr RAM, als vorher.

    Ollama bringt oft mein NAS bzw. den Container Manager zum abstürzen, weil der RAM voll läuft (OoM = Out of Memory). Deshalb habe ich dem Ollama Container noch ein RAM-Limit verpasst, dass notfalls nur Ollama beendet wird.

    Code
    deploy:
          resources:
            limits:
              memory: 4G

    Somit gebe ich dem Container maximal 4GB RAM zur Verfügung. Das muss man individuell anpassen. Ist vom System abhängig, was man eben nutzt.

    So würde der Ollama-Teil im Stack dann aussehen (aktuell bei mir selbst):

    Wenn man ein System nutzt, was genügend RAM hat, dann braucht man das aber normalerweise nicht. Ich muss auch dazu sagen, dass ich auf meiner Synology über 40 Container laufen habe. Zudem kommen tägliche Backups von Windows11 und CachyOS auf das NAS und das wiederum backuppt in mein Google-Drive. Dann läuft da noch telerising und easyepg... Emby... alles automatisch aktualisierende Container über Nacht. Daher habe ich das RAM-Problem. Nur mal so zur Info an alle. :D

    Toewe Genau das ist ja das Geile an diesem Ollama-Setup: Das läuft zu 100 % lokal bei dir. Du brauchst das Internet nur ein einziges Mal ganz am Anfang, um dir das Sprachmodell herunterzuladen (mit dem ollama pull Befehl). Danach kannst du theoretisch den Stecker vom Router ziehen und die KI analysiert deine Dokumente in Paperless-AI trotzdem problemlos weiter. Da geht absolut nichts in irgendeine Cloud. Du kannst das System also komplett vom Internet abschotten, wenn du willst.

    Was die Geschwindigkeit angeht: Ich habe Ollama als Container direkt auf meiner DS720+ laufen. Da die DiskStation keine fette Grafikkarte hat, läuft das alles über die CPU. Das ist natürlich kein Geschwindigkeitswunder und das Analysieren dauert pro Dokument ein bisschen. Mich stört das aber nicht, weil Paperless-AI das ja eh unsichtbar im Hintergrund macht.

    Ich habe in meinem PC noch eine RTX 5090. Wenn ich Open-WebUI nutze, greife ich darauf zu, das rennt natürlich wie verrückt. Damit Paperless-AI diese Power nutzen könnte, müsste ich Ollama auf dem PC laufen lassen. Dann müsste der Rechner aber logischerweise auch immer laufen, wenn der Scanner ein Dokument an Paperless schickt. Darauf hatte ich keine Lust, deshalb bleibt bei mir alles gemütlich, aber autark auf dem NAS. Kurzum: Mach dir keine Sorgen wegen dem Internet, das bleibt alles bei dir im Heimnetz!


    ===============================


    Ich habe mein Setup in den letzten Tagen nochmal komplett überarbeitet. Die fehleranfällige manuelle Konfiguration über eine .env Datei fällt nun komplett weg! Das geht jetzt alles bequem über ein Webinterface.

    Ich habe hier einen All-in-One Stack für euch. Darin ist alles enthalten: Paperless-ngx, Paperless-AI, Ollama (für die lokale KI), Open-WebUI und sogar ein Auto-Scanner-Container für Brother-Drucker. (Brother DCP 2530dw - in meinem Fall)

    Hier ist der Code. Überall, wo # <--- ANPASSEN steht, müsst ihr eure eigenen Daten eintragen:

    Wie hängen die Container zusammen? (Kurz erklärt)

    Damit ihr den Stack besser versteht, hier ein kurzes Beispiel, warum manche Werte so eingetragen sind, wie sie sind:

    • Interne Adressen: Container im selben Stack können sich über ihren container_name erreichen. Deshalb steht beim Webserver PAPERLESS_REDIS: redis://broker:6379. Er sucht einfach im internen Docker-Netz nach dem Namen broker. Gleiches gilt für Ollama: OLLAMA_BASE_URL=http://ollama:11434.
    • Der Consume-Ordner: Der brother-scanner Container speichert gescannte Dokumente im Ordner /scans ab. Wir haben dieses Verzeichnis auf der Festplatte exakt auf denselben Ordner gemappt, den auch der webserver (Paperless) als /consume Ordner nutzt. So tauchen Scans automatisch (mit einer kleinen Verzögerung) in Paperless-NGX auf.
    • Paperless Login: Die Werte PAPERLESS_ADMIN_USER und PAPERLESS_ADMIN_PASSWORD erstellen beim allerersten Start automatisch euren Admin-Account. Mit genau diesen Daten loggt ihr euch später im Webinterface ein!


    So richtet ihr es ein:

    1. Stack starten & KI Modell laden:

    Wenn der Stack läuft, hat Ollama (die KI-Engine) noch kein "Gehirn". Ihr müsst das Sprachmodell herunterladen. Geht dafür in die Konsole des ollama Containers und tippt ein: ollama pull llama3.2 (Das dauert einen Moment, das Modell ist ca. 2 GB groß).

    Mit ollama list könnt ihr danach prüfen, ob es erfolgreich geladen wurde. So würde es dann aussehen:

    2. Paperless-AI über den Einrichtungs-Assistenten konfigurieren:

    Das Beste an der neuen Version: Ihr braucht keine .env Dateien mehr manuell anlegen oder nach eurer User-ID suchen! Das macht der Setup-Wizard nun alles automatisch für euch.

    1. Ruft im Browser die Oberfläche von Paperless-AI auf: http://EURE-IP:3747
    2. Bild 1.png (User Setup): Ihr werdet vom neuen Assistenten begrüßt. Denkt euch hier einen Benutzernamen und ein Passwort aus. Das ist euer Login für diese Paperless-AI Oberfläche.
    3. Bild 2.png (Connection Settings): Bei "Paperless-ngx API URL" gebt ihr intern http://webserver:8000 an. Darunter tragt ihr euren "Paperless-ngx Username" ein (wie im Bild blau markiert). Den API Token bekommt ihr, indem ihr in euer normales PaperlessNGX (Port 8811 in meinem Beispiel) geht, rechts oben auf euren Namen -> Einstellungen -> API-Token klickt und einen neuen erstellt.
    4. Bild 3.png (AI Configuration): Wählt als Provider "Ollama (Local LLM)". Bei der URL tragt ihr http://ollama:11434 ein und als Modell llama3.2 (oder das Modell, welches ihr in Schritt 1 heruntergeladen habt).
    5. (Advanced Settings): Hier könnt ihr das Scan-Intervall festlegen. Das Feld nutzt das sogenannte "Cron Format", was für Anfänger etwas kryptisch wirken kann. Wenn ihr einfach alle 30 Minuten scannen wollt, reicht oft die Eingabe 30 (oder */30 * * * *). Wenn ihr aber spezielle Zeiten festlegen möchtet (z.B. "jeden Tag um 18:00 Uhr" oder "nur Montags"), könnt ihr euch den passenden Code auf der Webseite crontab.guru ganz einfach zusammenklicken und dann hier einfügen!
    6. Bild 5.jpg (AI Functions & Prompt): Setzt die Haken bei den Funktionen, die die KI für euch übernehmen soll (z.B. Titel generieren, Absender erkennen). Unten könnt ihr einen deutschen "System Prompt" einfügen, damit die KI weiß, was sie tun soll (siehe Beispiel im Bild).
    7. Bild 6.jpg (Attention Popup): Wenn ihr keine speziellen Tags ausgewählt habt, warnt euch das System, dass nun alle neuen Dokumente von der KI verarbeitet werden. Das ist meistens genau das, was wir wollen. Klickt einfach auf "Yes, continue".
    8. Zum Schluss klickt ihr unten auf Save Configuration.

    Fertig! Paperless-AI speichert alle Einstellungen selbst in seinen App-Daten ab. Ihr landet auf dem Dashboard und könnt rechts oben über "Scan" direkt loslegen.


    Wichtiger Hinweis zu den Ports (Falls ein Port schon belegt ist)

    Falls sich euer Stack nicht starten lässt, weil es eine Fehlermeldung gibt, dass ein Port (z. B. 3000 oder 8811) bereits "in use" (belegt) ist, könnt ihr das ganz einfach anpassen.

    Bei Docker werden Ports immer nach dem Schema - "LinkerPort:RechterPort" angegeben.

    • Linker Port (Host): Das ist der Port eures NAS/Servers. Den gebt ihr im Browser ein.
    • Rechter Port (Container): Das ist der interne Port des Containers.

    Die goldene Regel: Ihr dürft immer nur die linke Seite ändern, niemals die rechte!

    Beispiel beim Paperless Webserver (Paperless-NGX):

    Code
    ports:
          - 8811:8000 # <--- Nur die 8811 (links) darf geändert werden!

    Wenn die 8811 bei euch schon belegt ist, macht ihr daraus einfach - 8812:8000. Ihr erreicht Paperless dann im Browser über http://EURE-IP:8812.

    Wichtig für die interne Kommunikation: Die Container sprechen intern immer über ihre internen Namen und rechten Ports miteinander. Wenn ihr also in den Settings von Paperless-AI nach der "Paperless API URL" gefragt werdet, tragt ihr weiterhin http://webserver:8000 ein – völlig egal, was ihr links im Stack für einen Port vergeben habt! Dasselbe gilt für Ollama (http://ollama:11434). Da ändert sich für euch also absolut nichts beim Setup.


    Wie finde ich meine USERMAP_UID und USERMAP_GID heraus?

    Diese beiden Werte sind super wichtig, damit der Container die richtigen Lese- und Schreibrechte auf euren Ordnern auf der Festplatte hat. Ihr müsst hier die IDs des Benutzers eintragen, dem die Docker-Ordner gehören (meistens euer Haupt-Benutzer).

    So findet ihr die IDs heraus:

    Variante A: Für Standard-Linux (Ubuntu, Debian, Raspberry Pi etc.)

    1. Öffnet euer Terminal.
    2. Tippt einfach den Befehl id ein und drückt Enter.
    3. Als Ausgabe bekommt ihr etwas wie: uid=1000(deinuser) gid=1000(deinuser).
    4. Die 1000 bei uid ist eure USERMAP_UID, die 1000 bei gid eure USERMAP_GID.

    Variante B: Für Synology NAS (Ohne SSH / Terminal) Wenn ihr SSH auf der Synology nicht aktiviert habt, könnt ihr einen ganz einfachen Trick über den Aufgabenplaner nutzen:

    1. Öffnet auf der Synology die Systemsteuerung -> Aufgabenplaner.
    2. Klickt auf Erstellen -> Geplante Aufgabe -> Benutzerdefiniertes Skript.
    3. Gebt der Aufgabe bei Vorgang einen Namen (z. B. "ID rausfinden").
    4. WICHTIG: Wählt bei Benutzer euren normalen Account aus (nicht root!), mit dem ihr auch die Docker-Ordner verwalten wollt.
    5. Geht auf den Reiter Aufgabeneinstellungen. Tragt unten in das große Feld "Benutzerdefiniertes Skript" folgendes ein: id > /volume1/public/meine_id.txt (Falls euer Public-Ordner auf Volume 2 liegt, ändert die 1 in eine 2).
    6. Speichert die Aufgabe mit OK ab.
    7. Wählt die Aufgabe in der Liste aus und klickt oben auf Ausführen.
    8. Geht in eure File Station. Im Ordner public liegt nun eine Textdatei namens meine_id.txt. Wenn ihr sie öffnet, stehen dort eure exakte uid (meistens 1026) und eure gid (meistens 100).

    =====================WICHTIG=====================

    09.03.2026 09:35Uhr - Den Stack und die .env nicht nutzen. Es sind noch Fehler drin. Ich werde das hier bis morgen überarbeiten und dann hier oben per weiteren edit bescheid geben, wenn ich fertig bin!!!!!!!!!

    //edit: ich schaff es heute doch nicht. muss kurzfristig zu einem termin. morgen, also am 11.03.2026 mach ich das.

    //edit: 11.03.2026 09:10Uhr : Bitte diesen Post hier nicht beachten und einen weiter unten lesen. dieser hier geht nicht richtig, der unten schon. ich will das hier aber stehen lassen, damit man sieht, was geändert wurde. (wenn es für den mod ok ist) ich kann es hier nicht reineditieren, weil der post dann zu viele zeichen hat. uuund ich habe hier die bilder im anhang gelöscht und die nötigen im unteren post angehängt, damit sie nicht doppelt sind und auch keine verwirrung stiften kann. :)

    =====================WICHTIG=====================


    Toewe Naja, die KI braucht ja Internet. Sonst geht das ja nicht. Oder hast du das komplett lokal bei dir laufen? Dann benötigt es kein Internet. (Schätze ich) - Ich habe bei mir z.B. Ollama auch auf meiner DS720+ lokal laufen. Dann übernimmt die CPU die ganze Sache, was aber sehr lahm ist. Evtl. kann man noch die GPU im Stack mit durchreichen. Dann wirds wohl schneller gehen. Aber CPU und GPU sind ja nun nicht die High-End-Komponenten, also wirds trotzdem ein wenig dauern. :D Ich habe zusätzlich noch meine GPU mit eingebunden (RTX5090) - Aber das greift nur, wenn ich z.B. auf meinen Container OpenWebUI gehe und das entsprechende Modell wähle. Also das hat auch nichts mit PaperlessNGX zu tun. Das funktioniert nur, wenn ich meine "eigene" KI dann Dinge frage. Direkt über das OpenWebUI. Abhilfe schafft das bei PaperlessAI nicht. Sonst müsste ja auch immer der PC an sein, damit auf die RTX5090 zugegriffen werden kann. Kurzum: Ich würde mir an deiner Stelle da keine Sorgen machen.


    Ich habe inzwischen aber einen einzigen Stack für die ganze Geschichte. Darin ist alles für PaperlessNGX enthalten. Auch PaperlessAI und auch OpenWebUI inkl. Ollama. Falls interesse besteht:

    Überall wo man manuell was anpassen muss, habe ich hinten dran mit # <--- ANPASSEN versehen.

    Anpassungs-Guide für deinen Freund

    Eintrag im StackWas ist das?Woher bekommt man es?
    Volumes / PfadeDie Ordner auf der Synology.In der File Station auf den Ordner rechtsklicken -> Eigenschaften. Dort steht der "Ort" (z.B. /volume1/docker/...).
    PAPERLESS_API_TOKENDer Sicherheitsschlüssel für die KI.In Paperless oben rechts auf den User -> Einstellungen -> API-Token. Dort einen neuen Token erstellen.
    USERMAP_UID / GIDDie "ID" des Synology-Nutzers.Per SSH mit id abfragen oder im Aufgabenplaner ein Skript mit id ausführen lassen. Meistens 1026 oder 1027.
    PAPERLESS_URLDie Adresse von außen.Das ist die Adresse, die er im Reverse Proxy der Synology festlegt (z.B. bei Strato oder Cloudflare) [cite: 2026-01-13].
    WEBUI_SECRET_KEYEin interner Sicherheitsschlüssel.Einfach einmal mit der Faust auf die Tastatur hauen – Hauptsache ein langer, zufälliger Text.

    Hier auch noch Infos, welche aber auf meine Synology DS720+ zugeschnitten sind. Aber da kann man ja ableiten. Je nach dem was für ein System man nutzt.

    Wichtig: Wenn alles läuft, dann muss man nochmal am besten in den Container von Ollama gehen und dort in der Konsole das Model runterladen, was so geht:

    Modell laden: Man muss in die Konsole des Ollama-Containers gehen und ollama pull llama3.2 eingeben, damit die KI überhaupt weiß, was sie tun soll. --> Also ohne Modell funktioniert nichts. :D Deshalb der Download.

    Zur Info, so würde das aussehen:

    ollama list = zeigt die installierten Modelle an

    ollama pull llama3.2 = lädt das Modell llama3.2 herunter


    Falls es zu Schwierigkeiten oder Fehlern kommt, gerne melden. Somit wäre PaperlessNGX und PaperlessAI komplett offline nutzbar.

    Achja, ich habe in dem Stack noch meinen Drucker drin. Es handelt sich um den https://store.brother.de/geraete/laser/dcp/dcpl2530dw Drucker.

    Somit kann ich ein Dokument am Drucker Scannen und direkt PaperlessNGX wählen. Der Scan geht direkt in den "consume"-Ordner und wird dann in PaperlessNGX eingepflegt und die KI bearbeitet es dann noch zum Schluss. :)


    Lg


    //edit: Ups, was vergessen... wenn das alles gemacht ist und der Stack komplett startet, dann ist fast alles fertig. Danach muss man noch in seinen Ordner von PaperlessAI gehen, was bei mir wäre. Dort sollte nun eine .env Datei sein. Diese öffnen und alles raus löschen. Dann diesen Inhalt rein:


    Dann speichern und den PaperlessAI Container restarten. Fertig!

    Wenn man nun auf das WebIF von PaperlessAI geht, wird man vom Wizard begrüßt. Dort kann man auf Skip klicken und es sollte soweit alles richtig ausgefüllt sein.

    Auf der ersten Seite gibt man seinen Username und 2x das Passwort an. Das ist für das WebIF von PaperlessAI an sich. ansonsten kann man mit Next immer weiter.

    Auf der zweiten Seite überprüft man nochmals, ob da der Username eingetragen ist, der auch bei PaperlessNGX benutzt wird/erstellt wurde.

    Auf der dritten Seite muss man nichts tun.

    Auf der vierten Seite muss man überprüfen, ob die Haken gesetzt sind. Siehe Bild im Anhang hier im Post. Der Haken bei "Custom Fields" muss nicht unbedingt drin sein.

    Danach klickt man auf "Save Configuration" und nun sollte man einfach auf dem Dashboard von PaperlessAI landen. Rechts oben ist der Scan Button. Damit kann man direkt den ersten Scan erzwingen und PaperlessAI arbeitet nun vor sich hin. Das dauert nun, hängt aber natürlich davon ab, wie schnell euer Gerät ist und wieviele Dateien ihr in PaperlessNGX drin habt.

    Nun sollte es voll automatisch laufen.


    //edit2: Ich habe noch das Bild "userid_paperless.png" angehängt. Hier kann man sehen, wie man seine UserID herausbekommt. Diese ID muss man dann auch in der .env Datei hinterlegen.

    Kein Problem. :)

    Das kannst du laut sagen. Habe tagelang da rumgemacht. Irgendwann hats dann mitm NUC geklappt, der aber zu schwach war und dann musste ich das ganze nochmal von vorne machen und habe nun alles auf nem Lenovo Thinkcentre. Genaues Modell müsste ich gucken, bzw. es steht irgendwo im inxi-Bericht drin. Oder man sucht mit dem inxi Bericht bei http://www.gemini.google.com und der sagt dir dann welches Modell das ist. Ich weis es nicht mehr genau.

    Aber ich hab so ziemlich alles mit Gemini gemacht. Es hat im prinzip wunderbar funktioniert. :)

    Habe mir sogar noch Gotify installiert. Wenn nun eine Cam ne Bewegung erkennt, kommt eine Pushmitteilung an das Handy vom Vater mit Bild. Nebenbei habe ich noch gleich Pihole mit installiert. Bat sich ja an. Nginx Proxy Manager auch noch, damit ich ein paar Container auch von mir zu Hause aus dann verwalten kann. Habe dann duckdns.org benutzt und den Proxy Manager als Reverse Proxy. Das klappte auch alles wunderbar.

    Hey,

    habe ich gerade gelesen und finds toll. Jedenfalls für die Leute, die es nutzen möchten. :)

    Geforce Now: Nvidia baut seine Bemühungen unter Linux aus
    Nvidia baut seine Bemühungen unter Linux weiter aus und wird zur CES 2026 einem Bericht zufolge seinen Cloud-Gaming-Dienst Geforce Now nativ auf das freie…
    www.pcgameshardware.de

    Hatte das mal vor nem Jahr oder so mit Windows getestet und es lief bei mir damals echt super!


    Lg

    Sorry für die späte Rückmeldung...meine Oma hatte vor 2 Tagen einen Schlaganfall und ja...geht grad n bisschen drunter und drüber. :(

    Ich hab mich heute mal hingesetzt und habe nochmal Shinobi neu aufgesetzt.

    Dort habe ich die Hof Cam eingebunden. Die läuft nun. Bild ruckelt und zuckelt als mal. Wenn man oben bei der Zeit schaut, sieht man auch, wie es als "hängen" bleibt und dann wieder "aufholt" und so. Keine Ahnung was das nun ist.

    In den Settings habe ich nun tatsächlich mal das eingegeben, was ResidentAlex sagte. Mit der Streamingurl geht es. Zudem habe ich noch über diese "Probe"-Funktion Infos über den Camstream bekommen:

    Diese Infos kamen, wenn ich rtsp://192.168.178.24:554/onvif1 benutzt habe. Mit rtsp://192.168.178.24:554/stream=0 habe ich es nicht versucht.

    Ansonsten habe ich dann noch 25fps, Width 1280, Height 960 angegeben. Was Video und Audio betrifft, habe ich auf "Auto" gestellt.

    Die Cam im Garten bekomme ich so einfach nicht eingebunden. Die Funktioniert auch nur über den Pi, immer noch kein Handy, kein VLC, keine App oder sonst was.

    In der Fritzbox werden aber beide Cams angezeigt und haben auch die passende und feste IP. Ist mir ein Rätsel, wieso das nicht klappt.

    Beide Cams sind außerdem fest mit einem "fertigen" LAN-Kabel direkt mit der Fritzbox verbunden. Also kein selbstgebautes Kabel oder sowas...

    Ich habe mal ein paar Videos und Bilder noch angehängt, worauf man das soweit alles sieht. Auch Logs sind mit dabei, falls man da was rauslesen kann.

    Log vom Portainer ansich:

    Habe auch mal geschaut, weil da was von NOT ACTIVATED steht, aber das macht wohl nichts. Laut deren Website steht dazu folgendes:

    (https://hub.shinobi.video/articles/view/2RxeJETY2eamKny)

    Code
    Which parts of Shinobi are locked if I don't Activate?
    Camera Count unrestricted based on the license chosen : https://licenses.shinobi.video/
    Private Backup of your Monitor Configurations to ShinobiHub : https://docs.shinobi.video/backup/private-monitor-configurations-to-shinobihub
    Encrypted Remote Access without a VPN or Port-Forwarding : https://docs.shinobi.video/configure/p2p
    Extended Features for Timeline, View Recordings in a human way : https://www.youtube.com/watch?v=JA8y1myMecE
    Central Management, Access multiple Shinobi machines in one interface : https://docs.shinobi.video/system/central-management


    MfG

    Ich habe mal schnell bei mir zu Hause den Container aufgesetzt. Hier mal einige Screenshots von den Einstellungen, wenn man eine Cam hinzufügen möchte.

    Achja und das wäre die verwendete Docker Compose für Portainer

    Hi,

    zur Zeit habe ich bei meinen Eltern einen Raspberry Pi 4 im Einsatz. Dort läuft das normale RaspbianOS drauf. Ansonsten wurde nur ein Script verwendet, welches mir die Streams von den Cams abgreift und am angeschlossenen Monitor per HDMI ausgibt bzw. einfach die Livestreams anzeigt.

    Das wäre mal das Script, welches ich nutze und auch seit Jahren ohne Probleme läuft (Sorry, habe grad bei mir zu Hause einen Screenshot parat):


    Da nun vor ein paar Wochen in der Nähe öfters mal eingebrochen wurde, wollten meine Eltern nun auch das Aufzeichnen der Cams haben.

    Dazu habe ich nun einen älteren Intel NUC benutzt. Hier habe ich das aktuelle Debian 13 installiert, alles geupdatet und dann Docker installiert. In Docker habe ich nun den Container "Shinobi" am laufen. (https://gitlab.com/Shinobi-System…e/master/Docker)

    Leider bekomme ich es nicht hin die Kameras einzubinden. Es sind zwei Stück von der Firma HiKam. Model weis ich gerade nicht aus dem Kopf heraus.

    Ich verstehe aber nicht, was ich falsch mache. Dieses Onvif Discover findet nur die Kamera vom Hof und die vom Garten nicht. In der Hikam App am Handy wird Hof gezeigt, Garten soll offline sein.

    Habe aber nebenher noch immer den Pi laufen, mit dem ich über ein Script Das Livebild auf den Monitor im Wohnzimmer anzeigen lasse. Beide Cams werden gezeigt.

    Damals hatte ich das Tutorial von hier benutzt: https://schimmer-media.de/forum/index.ph…hikam-tutorial/

    Ich kapier net, warum im VLC Player kein Stream geht, warum die App nur den Hof anzeigt und den Garten nicht, aber beim Pi gehen beide einfach.

    Bei Shinobi wird die Hof Cam gefunden und wenn ich sie hinzufüge gehts net. Garten taucht gar nicht auf.

    Ändere ich aber dann die von Shinobi hinzugefügte Hof Cam beim Stream Type auf JPEG ab, dann bekomme ich ein Bild. Bzw. einzelne Bilder hintereinander und eben keinen Livestream. Was ja aber logisch ist.


    Jetzt weis ich nicht, wie ich was wo nachschauen soll. Das kann doch net so schwer sein. In der Hikam App habe ich auch "RTSP Auth" aus, damit ich im prinzip ja nur rtsp://192.168.178.24:554/onvif1 eingeben muss und schon sollte der Stream da sein...


    Hat jemand sowas zufällig am Laufen?


    Lg

    Ok, danke. Das teste ich mal. Ich gebe dann Rückmeldung. :)

    //edit: Sieht bis jetzt gut aus. Mal gespannt, ob es geht und ob ich auch HDR aktivieren kann.

    Hatte testweise zuerst noch folgende Optionen an:

    - Waylandtreiber verwenden

    - HDR

    - WOW64

    Dann hatte ich aber auch ein weißes Bild, wie man im Anhang beim Bild 2 sieht. Ohne klappt es mal zumindest bis zur Installation.


    //edit2: Weist du, wo man diese Launchoptions einfügen kann? Diese z.B.:

    Code
    SteamDeck=1 PROTON_ENABLE_WAYLAND=1 mangohud %command% -nobattleye -onSteamDeck -NoLauncher -scOfflineOnly -noBE

    Müsste natürlich durchprobieren, da das ja eigentlich Steam Launchoptions sind. Oder gibt es eine Art von Liste, welche man auch bei dem Rockstar Launcher nutzen kann?

    Hi,

    ich wollte unbedingt mal wieder GTA 5 am PC zocken und naja... die erste Hürde bekam ich nicht wirklich gelöst. Ich besitze ziemlich alle Rockstar Spiele in Steam. Leider komme ich nicht mehr an meinen Account ran, da der dort verknüpfte Rockstar Account uralt ist und ich die Zugangsdaten nicht mehr weis. Der ist noch mit einer alten web.de Mailadresse verbunden und da habe ich keinen Zugriff mehr. Der Widerherstellungscode wird natürlich nur dort hin geschickt. Ich habe sogar den web.de Support befragt. Meine Mailadresse ist so alt gewesen, dass sie inaktiv war und irgendwann gelöscht wurde und mittlerweile ist sie wieder an jemand anderen vergeben worden. Das alles habe ich Rockstar mitgeteilt. (Ticket)

    Da Rockstar aber nicht mal meine Verknüpfung zum Steamaccount "löschen" will, damit ich meinen aktuellen Account verbinden kann, blieb mir nix anderes übrig, als GTA5 nochmal direkt für den Rockstar Launcher zu kaufen. (Der Rockstar Support ist so grotten schlecht, das ist unglaublich. Man muss bald Zahnabdrücke und eine Niere schicken, damit die glauben, dass die Accounts mir sind)


    Ok... also zu meiner Frage... wie bekomme ich den Rockstar Launcher samt GTA5 Enhanced mit Linux zum laufen? Ich habe ein wenig getestet und Lutris benutzt. Das wollte aber nicht so klappen. Ich benutzte auch z.B. dieses Script: https://lutris.net/games/grand-theft-auto-v/ (Rockstar Games Launcher Version)


    Es war so viel, was ich getestet habe, dass ich gar nicht mehr weis, was es alles war. Ich kam zu dem Punkt, dass der Launcher installiert wurde. Einloggen ging nicht, da ich immer beim Anmeldebildschirm ein komplett weißes, oder schwarzes Bild zu sehen bekam. Somit konnte ich mich nicht einloggen und auch das Spiel nicht downloaden.


    Falls das klappen sollte, dann kommt noch Battleeye ins Spiel. (Anticheat, Kernelebene basierend). Das müsste man irgendwie deaktivieren oder sowas, damit ich den Singleplayer spielen kann.


    Wenn man die Steamversion von GTA nutzt, dann geht das wohl ganz easy mit dem -nobattleye flag als Startoption. Das las ich hier: https://www.protondb.com/app/3240220


    Hat jemand das Spiel schon zum laufen bekommen, oder ne Idee, wie ich das tun kann?

    Hier noch mein PC:


    LG