Hallo,
ich benutze seit einigen Wochen die Spracherkennung und habe auch das Training soviel wie im Alltag möglich benutzt.
Allerdings gibt es Performanceprobleme. Wenn ich den Fenster für einen Karteikarteneintrag öffne und losdiktiere (ich benutze kein separates Mikro) kommt es gefühlt in ca. 50% der Fehler zum "Stau" der Erkennung und nichts geht mehr. Manchmal funktioniert es problemlos, dann ist die Erkennung auch gut nutzbar.
Der Spracherkennungsserver läuft bei mir auf dem Arbeitsplatzrechnen auf einem iMac 4k 2019 , 3Ghz 6 core i5 16 Gb RAM und SSD in einem Dockercontainer unter Catalina 10.15.7.
Gibt es eine Möglichkeit, die Perfomance zu verbessern, ohne einen neuen Rechner anschaffen zu müssen? Macos-Updares vielleicht? Mehr RAM zuordnen? Ich habe im Docker aktuell 4 CPS., 8 GB Memory und 1 HG Swap eingestellt, Disk image Size ist 60 gb, 4 GB sind in Benutzung. (Wurde von Tomedo so eingestellt).
Gruß
-js
ich benutze seit einigen Wochen die Spracherkennung und habe auch das Training soviel wie im Alltag möglich benutzt.
Allerdings gibt es Performanceprobleme. Wenn ich den Fenster für einen Karteikarteneintrag öffne und losdiktiere (ich benutze kein separates Mikro) kommt es gefühlt in ca. 50% der Fehler zum "Stau" der Erkennung und nichts geht mehr. Manchmal funktioniert es problemlos, dann ist die Erkennung auch gut nutzbar.
Der Spracherkennungsserver läuft bei mir auf dem Arbeitsplatzrechnen auf einem iMac 4k 2019 , 3Ghz 6 core i5 16 Gb RAM und SSD in einem Dockercontainer unter Catalina 10.15.7.
Gibt es eine Möglichkeit, die Perfomance zu verbessern, ohne einen neuen Rechner anschaffen zu müssen? Macos-Updares vielleicht? Mehr RAM zuordnen? Ich habe im Docker aktuell 4 CPS., 8 GB Memory und 1 HG Swap eingestellt, Disk image Size ist 60 gb, 4 GB sind in Benutzung. (Wurde von Tomedo so eingestellt).
Gruß
-js