Holzeisenbahn mit Klemmbausteinen verbinden

Ich habe Adapter von Toy2 gekauft, mit denen sich Klemmbausteine mit einer Holzeisenbahn verbinden lassen.

Das funktioniert sehr gut. Brücken werden deutlich stabiler als bei den normalen Pfeilern, auf denen die Gleise nur aufliegen. Außerdem kann man deutlich größere Brücken bauen.

Ich würde sagen, dass die Adapter zu den üblichen Holzeisenbahnen und Klemmbausteinen für Kleinkinder (z. B. Hubelino oder Duplo) passen sollten.

Bash: Dateien finden, die nur in einem von zwei Verzeichnisbäumen vorkommen

diff <(find DIR1 -type f -printf "%s %f\n" | sort | uniq) <(find DIR2 -type f -printf "%s %f\n" | sort | uniq)

Findet alle Dateien, die nur in einem von zwei Verzeichnisbäumen vorkommen. Zwei Dateien gelten als gleich, wenn Dateiname und Größe übereinstimmen. Der genaue Pfad innerhalb der Verzeichnisbäume wird ignoriert.

Keine spürbare Reichweitenverschlechterung beim E-Golf nach 80000 km

Unser E-Golf ist seit Herbst 2018 über 80000 km gefahren. Eine Verschlechterung der Akkuleistung bzw. haben wir bisher nicht bemerkt (allerdings haben wir keine genaue Messung durchgeführt)

Der Akku wurde nur sehr selten auf über 80 % geladen. Auch sehr niedrige Akkustände kamen nur selten vor. Das Laden erfolgte überwiegend mit weniger als 7 kW.

Erkenntnisse aus dem letzten DSL-Ausfall

Zwei Erkenntnisse aus dem letzten DSL-Ausfall:

1. Der Ausfall des DSL-Anschlusses wurde durch eine „Rekonfiguration“ des Ports im Verteilerkasten behoben. Laut Telekom-Techniker hätte das Hotlinepersonal die Rekonfiguration durchführen können. Unser DSL-Anschluss wäre dann nicht vier Tage tot gewesen. Der Techniker hätte sich die Anfahrt erspart.

2. Die Fritzbox kann Mobilfunkverbindungen nicht nur per Mobilfunk-USB-Stick aufbauen, sondern auch per Smartphone und LTE-Router, wenn diese Geräte per USB angeschlossen werden. In meinem Fall hat dies mit einem LTE-Router von TP-Link sehr gut funktioniert. Eine Mobilfunkverbindung mittels Smartphone hat bei einem älteren Samsung Smartphone mit LineageOS ebenfalls funktioniert (eine Verbindung mittels Pixel 6a war allerdings weder mit original ROM noch mit CalyxOS möglich).

Stable Diffusion One-Click-Installer

https://stable-diffusion-ui.github.io/

Installiert Stable Diffusion inkl. Web-UI. Wie seriös das Paket ist, kann ich leider nicht bewerten.

Meine AMD-Grafikkarte wurde erst für die Berechnungen verwendet, nachdem ich den ausführenden Linux-Benutzer in die Gruppen render und video eingetragen hatte.

LLMs: Chain-of-thought prompting

Man konnte zeigen, dass man von Large Language Models (wie ) bei einigen Fragestellungen häufiger richtige Antworten erhält, wenn man der Frage beispielsweise das Zusatzkommando „Let’s think step by step“ hinzufügt. Das Modell generiert dann ggf. eine Wortfolge, die wie eine schrittweise Herleitung des Ergebnisses aussieht. M. E. ist daran interessant, dass solche Modelle, obwohl sie keinerlei Verständnis von Frage und Antwort haben, auf diese Weise bessere Antworten generieren.

Ein entsprechendes Paper findet sich hier: https://openreview.net/pdf?id=e2TBb5y0yFf

Im Paper wird folgendes Beispiel genannt:

„Q: A juggler can juggle 16 balls. Half of the balls are golf balls, and half of the golf balls are blue. How many blue golf balls are there?
A: Let’s think step by step.

(Output) There are 16 balls in total. Half of the balls are golf balls. That means that there are 8 golf balls. Half of the golf balls are blue. That means that there are 4 blue golf balls.“

Ohne die Zusatzanweisung „Let’s think step by step“ hätte das Modell, das im Beispiel verwendet wurde, eine falsche Antwort gegeben: Es hätte „8“ geantwortet.

Gerade weil das Modell kein Verständnis davon hat, welche Wortfolgen erzeugt werden, muss man dabei im Auge behalten, dass auch diese Methode nicht zu fehlerfreien Antworten führt. Bei vielen Antworten wird es sich weiterhin um „Halluzinationen“ handeln.

„Like previous GPT models, the GPT-4 base model was trained to predict the next word in a document“

Was bedeutet das nach meinem Verständnis:

Bei ist es so, dass es sich den bestehenden Text „anschaut“ und dann, anhand von dem, was da bereits steht, das nächste Wort errechnet (immer nur ein Wort). Bei der Berechnung werden die wahrscheinlichsten Kandidaten für das nächste Wort ermittelt. Dann schreibt GPT einen der Kandidaten hin* und fängt erneut an. Text „lesen“, nächstes Wort ausrechnen. Text „lesen“, nächstes Wort ausrechnen. Usw. usf.

(Wobei intern keine Worte sondern nur Zahlen verwendet werden.)

Wenn ein Mensch etwas sinnvolles schreibt, hat er / sie vermutlich schon vorher eine gewisse Vorstellung von dem, was er / sie schreiben will.

Wenn ein Mensch schreibt „Delphine sind Säugetiere, weil sie lebende Nachkommen auf die Welt bringen und Milch geben.“, dann hat er / sie sich evtl. aus den Tatsachen hinter dem „weil“ die vorhergehende Aussage „Säugetier“ hergeleitet.

Bei GPT kann das nicht passieren. GPT schreibt das Wort „weil“ einfach nur, weil der Algorithmus dies (basierend auf den Wörtern, die bereits vorhanden sind) errechnet hat.

Die Wahrscheinlichkeiten werden beim „Training“ des Modells ermittelt. Das Modell wird mit Unmengen an Text gefüttert und leitet sich daraus die Wahrscheinlichkeiten ab.

* Es hat sich gezeigt, dass die Texte „besser“ und interessanter werden, wenn nicht immer das wahrscheinlichste Wort verwendet wird. Eigentlich handelt es sich auch nicht unbedingt um Wörter sondern um sogenannte Token. Dabei kann es sich u. a. um Worte, Teilworte oder einzelne Buchstaben handeln.

BIOS / UEFI-Reset von Asrock Mainboard

Ich hatte bei meinem Asrock Mainboard den Ultra Fast Boot Modus aktiviert. Leider konnte ich danach nicht mehr in das UEFI-Einstellungsmenü gelangen. Laut Handbuch können die Einstellungen mittels Jumper zurückgesetzt werden. Das hat bei mir leider nicht funktioniert. Geholfen hat ein Entfernen der SSD. Nach dem Einschalten ohne SSD ist der Computer in das UEFI-Einstellungsmenü gewechselt. Dort konnte ich den Ultra Fast Boot Modus deaktivieren.