Buchhaltung für verliehenes Geld und verliehene Dinge

Mit der Android App Debitum kann man verliehenes Geld und verliehene Dinge verwalten.

Die App ist gut gelungen. M. E. hat sie nur einen Nachteil: Die Erstellung von Datenbackups kann nicht automatisiert werden. Ein Export der Daten muss manuell angestoßenen werden.

Die App ist bei F-Droid verfügbar.

Fehlende Benachrichtigungen bei der App „Conversations“

Wer das Problem hat, dass Nachrichten im Hintergrund nicht ankommen, sollte überprüfen, ob die Akkuoptimierung für Conversations deaktiviert ist. Eine aktivierte Akkuoptimierung kann dazu führen, dass das Handy die App einfach ohne Rückfrage beendet und dann keine Benachrichtigungen angezeigt werden.

Alternativ hilft wahrscheinlich auch die Kaufversion von Conversations bei Google Play, weil dort die Benachrichtigungen über einen Pushdienst von Google verschickt werden.

WLED auf SP511e-LED-Controller

Ich habe mir einen SP511e-LED-Controller mit vorinstallierter Tasmota 12.4 Firmware (meistens ist Tasmota NICHT vorinstalliert) gekauft, auf dem ich die WLED-Firmware installiert habe (danke Christian). Dazu sind folgende Schritte nötig:

1. „SetOption78 1“ in der Tasmota-Konsole ausführen, damit WLED installiert werden kann.

2. Tasmota-Minimal runterladen und über die Weboberfläche installieren, weil sonst nicht genügend Speicher für die WLED-Firmware verfügbar ist.

3. WLED 0.13.3 herunterladen und als gzip-Datei komprimieren (Dateiendung .gz).

3. gz-Datei mit der WLED-Firmware über die Weboberfläche von Tasmota-Minimal installieren.

Karriereplanung für Softwareentwickelnde: Die Arbeit an Open-Source-Projekten ermöglicht es, soziale Strukturen und projektspezifisches Know-how bei einem Firmenwechsel zu erhalten.

M. E. ist der folgende Aspekt bei der Karriereplanung von Softwareentwickelnden unterbeleuchtet: Nur die Arbeit in einem relevanten Open-Source-Projekt ermöglicht es, die sozialen Arbeitsstrukturen (v.a. Kolleginnen und Kollegen) bei einem Firmenwechsel zumindest teilweise zu erhalten. Zudem bleibt das erworbene projektspezifische Know-how bei einem Wechsel des Unternehmens weiterhin nutzbar.
Wer z.B. bei Suse angestellt ist und am Linux-Kernel arbeitet, wird wahrscheinlich auch bei einer anderen Firma, die sich mit dem Linux-Kernel beschäftigt, eine Anstellung finden. Das Arbeitsumfeld und Know-how bleiben beim Wechsel des Unternehmens zumindest teilweise erhalten bzw. nutzbar.
Bei der Arbeit an proprietärer Software dürfte der Firmenwechsel mit einem weitgehenden Verlust der sozialen Arbeitsstruktur und einer verminderten Nutzbarkeit des projektspezifischen Know-hows einhergehen, weil es in der Regel kein weiteres Unternehmen gibt, das an derselben Software arbeitet.

PhotoPrism

PhotoPrism ist eine Open-Source-Software zur Verwaltung von Fotosammlungen im Browser, die ich seit einigen Monaten verwende.

Mit Hilfe von Docker bzw. Docker Compose kann PhotoPrism einfach installiert werden, ohne dass umständliche Konfigurationen erforderlich sind. Wichtig für mich ist, dass PhotoPrism die Fotos in ihrer ursprünglichen Verzeichnisstruktur belässt, ohne sie zu bearbeiten, zu verschieben oder umzubenennen. Auf diese Weise behält man die volle Kontrolle über die eigene Fotosammlung, so dass es kein großes Problem ist, wenn die Software einmal ausfällt oder gewechselt werden muss. Außerdem kann so die Organisationsstruktur frei gewählt werden.
PhotoPrism bietet eine Weboberfläche, die es einfach macht, Fotos zu suchen und anzuzeigen. Darüber hinaus kann es auch Gesichter automatisch erkennen und taggen, was die Suche nach bestimmten Personen erleichtert.

Da PhotoPrism kein Berechtigungssystem enthält, eignet es sich nur für die Verwaltung der eigenen Fotosammlung. Für den Austausch mit verschiedenen Personengruppen ist es eher ungeeignet (es sei denn, alle Personen sollen Zugriff auf die gesamte Sammlung haben). Für den Austausch mit verschiedenen Personengruppen verwende ich Nextcloud.

Stable Diffusion One-Click-Installer

https://stable-diffusion-ui.github.io/

Installiert Stable Diffusion inkl. Web-UI. Wie seriös das Paket ist, kann ich leider nicht bewerten.

Meine AMD-Grafikkarte wurde erst für die Berechnungen verwendet, nachdem ich den ausführenden Linux-Benutzer in die Gruppen render und video eingetragen hatte.

LLMs: Chain-of-thought prompting

Man konnte zeigen, dass man von Large Language Models (wie ) bei einigen Fragestellungen häufiger richtige Antworten erhält, wenn man der Frage beispielsweise das Zusatzkommando „Let’s think step by step“ hinzufügt. Das Modell generiert dann ggf. eine Wortfolge, die wie eine schrittweise Herleitung des Ergebnisses aussieht. M. E. ist daran interessant, dass solche Modelle, obwohl sie keinerlei Verständnis von Frage und Antwort haben, auf diese Weise bessere Antworten generieren.

Ein entsprechendes Paper findet sich hier: https://openreview.net/pdf?id=e2TBb5y0yFf

Im Paper wird folgendes Beispiel genannt:

„Q: A juggler can juggle 16 balls. Half of the balls are golf balls, and half of the golf balls are blue. How many blue golf balls are there?
A: Let’s think step by step.

(Output) There are 16 balls in total. Half of the balls are golf balls. That means that there are 8 golf balls. Half of the golf balls are blue. That means that there are 4 blue golf balls.“

Ohne die Zusatzanweisung „Let’s think step by step“ hätte das Modell, das im Beispiel verwendet wurde, eine falsche Antwort gegeben: Es hätte „8“ geantwortet.

Gerade weil das Modell kein Verständnis davon hat, welche Wortfolgen erzeugt werden, muss man dabei im Auge behalten, dass auch diese Methode nicht zu fehlerfreien Antworten führt. Bei vielen Antworten wird es sich weiterhin um „Halluzinationen“ handeln.

„Like previous GPT models, the GPT-4 base model was trained to predict the next word in a document“

Was bedeutet das nach meinem Verständnis:

Bei ist es so, dass es sich den bestehenden Text „anschaut“ und dann, anhand von dem, was da bereits steht, das nächste Wort errechnet (immer nur ein Wort). Bei der Berechnung werden die wahrscheinlichsten Kandidaten für das nächste Wort ermittelt. Dann schreibt GPT einen der Kandidaten hin* und fängt erneut an. Text „lesen“, nächstes Wort ausrechnen. Text „lesen“, nächstes Wort ausrechnen. Usw. usf.

(Wobei intern keine Worte sondern nur Zahlen verwendet werden.)

Wenn ein Mensch etwas sinnvolles schreibt, hat er / sie vermutlich schon vorher eine gewisse Vorstellung von dem, was er / sie schreiben will.

Wenn ein Mensch schreibt „Delphine sind Säugetiere, weil sie lebende Nachkommen auf die Welt bringen und Milch geben.“, dann hat er / sie sich evtl. aus den Tatsachen hinter dem „weil“ die vorhergehende Aussage „Säugetier“ hergeleitet.

Bei GPT kann das nicht passieren. GPT schreibt das Wort „weil“ einfach nur, weil der Algorithmus dies (basierend auf den Wörtern, die bereits vorhanden sind) errechnet hat.

Die Wahrscheinlichkeiten werden beim „Training“ des Modells ermittelt. Das Modell wird mit Unmengen an Text gefüttert und leitet sich daraus die Wahrscheinlichkeiten ab.

* Es hat sich gezeigt, dass die Texte „besser“ und interessanter werden, wenn nicht immer das wahrscheinlichste Wort verwendet wird. Eigentlich handelt es sich auch nicht unbedingt um Wörter sondern um sogenannte Token. Dabei kann es sich u. a. um Worte, Teilworte oder einzelne Buchstaben handeln.