Aber vielleicht nicht grad mit Partygängern - außer, wenn Facebook aufgrund von Daten sicher sein kann, dass der Anlass zum Bild ein positiver war.
Ob das der Fall war oder nicht können wir hier nicht herausfinden.
Das weiß Facebook selber nicht. Die Jahresrückblicke werden nicht von Hand erstellt, sondern von Deep-Learning-Algorithmen. Das deep verhindert, dass wir eine einmal angelernte KI inspizieren können, um zu wissen, welche Regeln in ihr stecken. In einem bekannten Beispiel hat man eine KI mit Bildern von Hunden und Wölfen gefüttert, mit dem Zielt, dass die KI am Ende einen Wolf von einem Hund unterscheiden kann. Die Trefferquote der KI war auf dem Probe-Datenset enorm hoch. Bei weiteren Testläufen hat man dann herausgefunden, dass die KI sich das Tier gar nicht so sehr anschaut, sondern dem Hintergrund eine wesentlich höhere Bedeutung beimisst. Das hat dazu geführt, dass nahezu alle Tiere im Schnee als Wölfe klassifiziert wurden, und alle Tiere im grünen Wald oder in der Stadt als Hunde.
Etwas offtopic, aber vielleicht ein interessanter Zusatz: Inzwischen ist es beinahe ein Trendsport unter Sicherheitsforschern ML-Algorithmen so zu exploiten, dass sie nur scheinbar korrektes Verhalten lernen. Das ist sozusagen das Konzept einer Backdoor übertragen von herkömmlichen Programmen auf KI-Ebene.