Loading
Die „besten Bilder“ Bilder von ipernity
1. Wo sind sie zu finden?

Von neugierigen Besucherinnen und Besuchern oder neuen ipernity-Mitgliedern wird oft die Frage gestellt: „Wo findet man bei euch eigentlich die Kollektion der besten Bilder?“ Eine einfache Frage, aber schwer zu beantworten. Denn die ‚Galerie‘ unserer Webseite ist eher eine tagesaktuelle Show unserer populärsten Bilder. Ich verweise dann ersatzweise auf Gruppen wie:

Showcase of Excellence (~ 5900 Beiträge, Kriterien: 50+FAVs / 700+visits, nur für Gruppenmitglieder sichtbar)
Ipernity Hall of Fame (~ 4.800 Beiträge, Kriterien: 50+FAVs / 500+visits, öffentlich)
❖ Ipernity Photo Gallery ❖ (~ 116.000 Beiträge, Kriterien: 7+FAVs, erschienen in der Galerie, öffentlich)
Ipernity ☆ Masterpiece (~ 17.000 Beiträge, keine objektiven Kriterien, öffentlich)
★EXCELLENT★ (~ 27.000 Beiträge, keine objektiven Kriterien, öffentlich)
Simply the best (~ 420 Beiträge, keine objektiven Kriterien, öffentlich)
Best of ipernity (+ 16.000 Beiträge,keine objektive Kriterien, öffentlich)
Only your best photos (~ 2.100 Beiträge, keine objektiven Kriterien, öffentlich)
Ipernitys best (~ 6.600 Beiträge, keine objektiven Kriterien, öffentlich)
The Pursuit of Excellence (~ 770 Beiträge,öffentlich, geschlossen seit Dezember 2016)
ART - Absolute TOP of photography@ipernity (~ 1.000 Beiträge, Admin seit 6 Jahren nicht mehr aktiv)

Dabei ist mir stets etwas unwohl. Solche Gruppen sind zwar gut gemeinte Ersatzkonstruktionen, aber sind sie repräsentativ? Bei vielen gibt es keine nachvollziehbaren Auswahlkriterien. Einige haben weder eine Eintrittshürde, noch einen aktiven Administrator, der nach dem Rechten schaut. Es gibt Gruppen, die von Fotografen domiert werden, die schon längst nicht mehr aktiv sind, und sogar Gruppen, die seit Jahren nicht mehr aktiv sind. Für das Image von ipernity ist so was wenig förderlich.

Dennoch ist es anerkennenswert, dass sich Mitglieder in der Vergangenheit um dieses Defizit gekümmert haben und immer noch kümmern. Denn die Gründer von ipernity haben entweder vergessen, eine solche Präsentation aufzubauen, oder vor der Herausforderung kapituliert. Denn wann gehört ein Bild zu den „besten“?

2. Was sind überhaupt die „besten Bilder“?


Auf diese Frage gibt es viele Anworten, die man in hunderten von Büchern und tausenden von Artikeln nachlesen kann. Einig sind sich die meisten Autoren darin, dass gute Bilder gewisse technische Mindeststandards erfüllen müssen und einen guten Bildaufbau haben sollten. Sie sollten eine gewisse Originalität haben und eine Geschichte erzählen, die idealerweise emotional berührend ist. Aber stimmt das auch? Kann ein hervorragendes Architekturfoto berührend sein? Ist die prämierungsfähige Aufnahme eines Sportlers kreativ? Das Thema ist so vielfältig, dass die Entscheidung, welche Bilder zu den besten gehören, nach wie vor meistens von Jurys getroffen wird.

3. Wer sucht sie aus?

Wenn unser Verein eine solche Jury hätte, wäre es leicht, neugierigen Besucherinnen und Besuchern unserer Webseite eine Auswahl der wirklich besten Bilder unserer Gemeinschaft zu zeigen. Idealerweise sollte solch eine Jury aus 3 bis 5 qualifizierten Fotografinnen oder Fotografen bestehen, die verschiedene fotografische Spezialgebiete repräsentieren. Die Bilder sollten anonymisiert vorgelegt werden, wobei eine gewisse Vorauswahl und Mengenbegrenzung erforderlich ist, damit die Jury nicht überfordert wird. Dennoch hätte sie enorm viel zu tun.

Man kann sich leicht vorstellen, dass es nicht einfach sein wird, Juroren zu finden, die sich langfristig dafür engagieren möchten. Werfen wir also einen Blick auf die Alternativen.

4. Ist künstliche Intelligenz eine Alternative?

Die Fotonanny berichtete 2018 darüber, dass Forscher der Rutgers Universität 2017 eine KI vorgestellt hatten, die künstlerische Gemälde produzieren konnte. In einem Blindtest wurden solche Gemälde mit echten Werken von Künstlern vermischt und Experten zur Beurteilung vorgelegt. Diese beurteilten die Gemälde der KI insgesamt besser als die Werke der Künstler. Außerdem berichtete Fotonanny darüber, dass Forscher der Universität von Chicago ebenfalls 2017 eine KI vorgestellt hatten, die Rezensionen verfassen konnte. Diese KI-Rezensionen wurden zusammen mit von Menschen verfassten Rezensionen 600 Versuchspersonen zur Beurteilung vorgelegt. Sie konnten keine Unterschiede feststellen. So weit war die Forschung also vor 3 Jahren.

Schon davor, 2016, war für uns Fotomamateure ein Bildanalyse-Tool namens Keegan erschienen. Es war nicht perfekt, beurteilte Bilder aber so gut, dass Apple den Entwicklern das Tool abgekauft hat. Leider steht es deshalb nicht mehr zur Verfügung. Man vermutet, dass Apple es verwendet, um iPhone-Nutzern die besten Schnappschüsse aus Serien heraus zu filtern. Ein ähnliches Tool ist Excire Ästhetik. Wer Lust hat, kann es ja mal ausprobieren.

Stand der Technik ist also, dass automatisierte Bildbewertung mit Hilfe künstlicher Intelligenz im Laborstadium bereits weit forgeschritten ist. Als einbindbare Software ist sie aber noch nicht verfügbar.

5. Wie gut eignet sich Schwarmintelligenz?

Bei vielen Fotowettbewerben setzt man auf Schwarmintelligenz, indem man die Entscheidung dem Kreis der Einreicher und Einreicherinnen überlässt. Solche dezentralen, nicht-hierarchischen Aggregationen menschlicher Intelligenz entscheiden auf ähnliche Weise wie KI-Systeme. Sie trainieren sich laufend selbst und vergleichen die vorgelegten Prüfobjekte mit dem erworbenen kollektiven Wissen. Auf diese Weise spart man sich die teure Jury.

Allerdings muss man gewisse Vorkehrungen treffen, um Manipulation zu verhindern. Am Wichtigsten ist die Anonymisierung der Bildvorschläge. Es gilt aber auch, gezielte Massenabwertungen anderer Teilnehmer und Teilnehmerinnen zu verhindern. Dies geschieht üblicherweise durch Normierung der Bewertungen jedes einzelnen Mitglieds des Kollektivs. Bei Einhaltung dieser und einiger weiterer Regeln funktioniert die Methode bei ausreichend großen Kollektiven sehr gut. Die Qualität der Beurteilungen unterscheiden sich nicht von Jury-Bewertungen. Bei ipernity wurde dieses Prinzip im Rahmen der Secret Photographer Challenge erfolgreich angewendet, obwohl die Gruppe nur klein war (36 Mitglieder).

6. Gilt das auch für Community-Intelligenz?

Das Kollektiv einer Community bildet ebenfalls einen Superorganismus im Sinne eines Schwarms. So auch bei ipernity. Durch unsere Venetzung sind wir theoretisch in der Lage, die gestellte Aufgabe mit Bravour zu erledigen. Praktisch wird dies jedoch durch unseren inneren Interessenskonflikt unterminiert. Denn die fehlende Anonymität macht es unmöglich, objektiv zu urteilen. Außerdem legt sich jedes Mitglieds des Kollektivs eigene Regeln für die Stimmabgabe zurecht. Manche vergeben FAVs sehr freigiebig in Art eines Häkchens (= gesehen), andere sind sehr zurückhaltend und vergeben FAVs nur für wirklich herausregende Fotos. Bei einer großen Menge von Stimmabgaben würde sich das herausmitteln, wenn es nicht das Phänomen der Clusterbildung gäbe, in denen die psychologischen Gesetze der Reziprozität („Gibst Du mir, geb ich Dir.“) und sozialen Bewährtheit (Gefolgschaft) gelten. Was dabei herauskommt, sieht man in den oben zitierten Gruppen. Sicherlich sind darin viele „beste Bilder“ enthalten. Aber der Gesamteindruck wird durch mindestens ebenso viele durchschnittliche Bilder verwässert. Man könnte also sagen: Community-Intelligenz eignet sich nicht.

7. Lässt sich Community-Intelligenz dennoch nutzen?

Alternativ könnte man aber auch versuchen, diese menschlich völlig normalen, dem Zweck einer objektiven Entscheidungsfindung jedoch zuwiderlaufenen Verhaltensweisen wirkungslos zu machen oder zumindest so weit abzuschwächen, dass sie das Ergebnis nicht mehr wesentlich beeinträchtigen. Man müsste also die verzerrenden Einflüsse in ihrer Wirkunsstärke analysieren und danach in der praktischen Anwendung kompensatorisch gegenrechnen. Administratoren können so etwas manuell nicht leisten, denn dafür ist viel permanente Rechenarbeit erforderlich. Für eine Software dürfte es aber kein Problem sein.

Es geht also darum, einen effizienten Algorithmus auf der Basis vorhandener Daten zu entwickeln, der diese Aufgabe erfüllt und dabei so manipulationssicher ist, dass er sogar öffentlich diskutiert werden kann. Dieser könnte für ipernity im Absatz folgendermaßen aussehen:

Q = f (FAV, COMMENT, VISIT)

In dieser Formel ist Q der Qualitätsindex eines Bildes, nach dem später, bei der Präsentation, sortiert werden kann. Als Variable haben wir zunächst die „Favorisierungen“ (in der Formel abgekürzt: FAV). In allen oben genannten Gruppen wird zuerst danach sortiert. Das ist ok, aber unzureichend. Denn FAVs sind schnell per Klick vergeben. Andreas Lanz schlägt deshalb vor, die Kommentare hinzu zu nehmen (in der Formel COMMENT). Einen Kommentar zu schreiben, kostet den Besucher nämlich einige Mühe. Ein Bild, das Kommentare erhält, ist deshalb wahrscheinlich besser als eines, das nur favorisiert wird. Natürlich sind nicht alle Kommentare gleich wertvoll, aber das lassen wir zunächst außer acht, weil es nur schwer möglich ist, die Qualität von Kommentaren automatisiert auszuwerten. Drittens halte ich zusätzlich die Zahl der Besuche (in der Formel: VISIT) für wichtig. Immerhin bedeutet jeder Besuch, dass ein Betrachter oder eine Betrachterin motiviert war, sich das Bild aus dem Strom aller Bilder herauszupicken und in großer Darstellung anzuschauen. Außerdem gibt es Genres, wo viele Betrachter sich scheuen, Kommentare zu schreiben, wie beispielsweise bei der erotischen Fotografie.

Allerdings haben nicht alle Variablen das gleiche Gewicht. Deshalb sind Gewichtungsfaktoren einzufügen:

Q = a * FAV + b * COMMENT + VISIT

Außerdem ist der zeitliche Einfluss zu berücksichtigen. Dieser ist komplex. In der Regel folgt einem kurzen schnellen Anstieg der Rückmeldungen ein ein allmähliches Abklingen. Je nachdem, ob der jeweilige Fotograf oder die Fotografin Maßnahmen ergreift, um das Bild immer wieder neu zur Schau zu stellen (beispielsweis durch erneutes Posten in Gruppen), kann die Abklingkurve ganz unterschiedlich verlaufen. Sie hängt aber auch von ganz natürlichen Einflüssen wie dem Wetter, Feiertagen oder Urlaubszeiten ab. Ungünstig gepostet bekommt ein Bild ein ganz anderes Feedback, als günstig gepostet, sowohl von der Menge her, als auch im zeitlichen Verlauf.

Bildqualität ist aber etwas zeitloses. Kein Bild wird besser, wenn es in 50 Gruppen ausgestellt wird und deshalb womöglich mehr Beachtung findet. Es wird auch nicht schlechter dadurch, dass es mitten in der Haupturlaubszeit gepostet wird, und erst Wochen später Beachtung findet, wenn überhaupt. Die Zeitkomponente muss deshalb herausgerechnet werden. Die kalendarische Zeit ist wegen ihrer schwankenden Einflusstärke jedoch ungeeignet. Ein besseres Maß ist die Zahl der Visits, die mit der Zeit korreliert, wie die Auswertung meines eigenen Accounts zeigt. Die Korrelation ist mit 0,68 akzeptabel:

Eine indirekt das Zeitäquivalent berücksichtigende Formel könnte lauten:

Q = (a * FAV + b * COMMENT + VISIT) / VISIT

Gekürzt:

Q = 1+ (a * FAV + b * COMMENT) / VISIT

Damit hätten wir eine erste Basisformel auf der Grundlage der bei ipernity verfügbaren Feedbackvariablen entwickelt. Diese führt allerdings bei verschiedenen Fotografinnen und Fotografen zu unterschiedlichen, individuellen Ergebnissen, und zwar aus folgenden Gründen: Erstens entstehen im Lauf der Zeit unterschiedlich große und unterschiedlich aktive Follower-Kreise. Zweitens könnte ein Fotograf oder eine Fotografin versucht sein, unter Ausnutzung des psychologischen Moments der Reziprozität die Anzahl der Favoriten oder Kommentare aktiv in die Höhe zu treiben. Die Erfahrung zeigt, dass so etwas in allen Communities vorkommt. Daran sind die simplen Bewertungssysteme, die auch unseren eingangs zitierten Gruppen zugrunde liegen, nicht unschuldig. Wenn vor allem FAVs zählen, werden Anerkennung suchende Mitglieder natürlich versuchen, diese in die Höhe zu treiben. Wenn Kommentare zählen, schreiben dieselben Mitglieder möglicherweise zu jedem erhaltenen Kommentar ein 'Danke' und verdoppeln dadurch die Anzahl der Kommentare unter ihren Bildern. Im Extremfall könnten dadurch selbst unterdurchschnittliche Bilder viel bessere Platzierungen bekommen, als wirkliche Meisterwerke von kaum vernetzten Mitgliedern.

Die übliche Lösung dieses Dilemmas, die Anonymisierung, ist nach der Veröffentlichung in einer Community wie unserer nicht mehr möglich. Außerdem erkennt man bei vielen Bilder schon an der Art der Präsentation oder der Motivwahl, von wem sie wahrscheinlich stammen. Aber man kann das pro-aktive Hochtreiben des Feedbacks rechnerisch kompensieren, indem man nicht die absoluten Qualitätsindizes vergleicht, sondern die normierten. Dazu teilt man durch den für den jeweiligen Fotografen oder die Fotografin ermittelten Mittelwert:

Q^ = (1 + (a * FAV + b * COMMENT) / VISIT / MITTEL

Als Ergebnis ergeben sich normierte Qualitätskennziffern Q^, die aussagekräftiger sind, als die Ursprungswerte.

8. Was ist sonst noch zu beachten?

Für zuverlässige statistische Aussagen braucht man ausreichende Stichprobengrößen. Bei der Untersuchung von 10 Musteraccounts mit insgesamt 50.000 Bildern hat sich gezeigt, dass es vernünftig ist, folgende Untergrenzen festzulegen:

FAV ≥ 10
COMMENT ≥ 10
VISIT ≥ 100

Bilder, die diese Eintrittshürde nicht überwinden, gehören höchstwahrscheinlich nicht zu den besten Bildern der Community. Außerdem hilft die Eintrittshürde abzuwarten, bis die Feedbacks sich auf einem gewissen Niveau stabilsiert haben. Wie man nämlich in der oben gezeigten Grafik erkennt, verläuft die Ausgleichsgerade nicht durch den Ursprung. Die Ursache dafür sind die in den ersten Stunden und Tagen gehäuft eintreffenden Feedbacks.

Als Nachteil mag man empfinden, dass ein sehr gutes Foto dadurch erst verspätet unter den „besten Bildern“ erscheint. Andererseits erscheint es mit Sicherheit schnell in der Galerie der populärsten Bilder. So ergänzen sich kurzfristiege und längerfristige Auswertung sowie Präsentation perfekt. Und damit sind wir bei der letzen Frage:

9. Wie könnten die 'besten Bilder' angemessen präsentiert werden?

Wir kennen es von Google und anderen Suchmaschinen: Man schaut sich nur die ersten Trefferseiten an. Wenn man eifrig ist, noch ein paar weitere. Aber das Ende der Aufmerksamkeitsspanne ist meistend früher als später erreicht. Deshalb sollte es einen Mechanismus geben, der die Reihung der Bilder in der optischen Präsentation angemessen vornimmt.

Eine Option wäre die Reihung nach dem Upload-Datum (dem wirklichen physikalischen Upload, nicht dem - veränderbaren - Datum der Veröffentlichung). Eine andere Option wäre die Reihung entsprechend der Qualitätskennziffer. Vielleicht kann man so etwas auch einstellbar machen.

Außerdem sollte man den Mitgliedern, die nicht so viel Zeit für die Community aufwenden können, eine angemessene Chance geben, dass ihre „besten Bilder“ ebenfalls gesehen werden. Beispielsweise, indem man die Höchstahl der Beiträge pro Mitglied exponentiell limitiert. Ein Denkansatz wäre die Quadratwurzel aus (BILDER/50), wobei BILDER die Anzahl derjenigen Bild des jeweiligen Mitglieds sind, welche die Eintrittshürde überwinden.

9. Zusammenfassung

Auf Grundlage dieser Überlegungen sollte es möglich sein, auch ohne Jury eine repräsentative Sammlung der „besten Bilder“ unserer Community erstellen zu können, die objektiver ist als die eingangs zitierten Behelfslösungen. Einmal programmiert, würde eine automatisierte Präsentation keine laufende Betreuung mehr erfordern. Sie ist einem Jurorenmodell deshalb langfristig überlegen. Allerdings könnte letzteres kurzfristig als Übergangslösung geeignet sein, um beispielsweise so bald wie möglich einen entsprechenden Link auf der neuen 'Entdecken'-Seite zu platzieren, der Besucherinnen oder Besucher zu der Präsentation der objektiv „besten Bilder“ von ipernity führt.

10. Kritik

Die Wirksamkeit des Konzept wurde an 10 verschiedenen Accounts überprüft. Dabei wurden aus 6.500 Datensätzen die mittleren Gewichtungsfaktoren a = 22 und b = 33 ermittelt. Wie erwartet ergibt sich für alle Fotografen eine Reihenfolge, in der die Bilder an oberster Stelle stehen, welche die meisten FAVs und COMMENTs bezogen auf die Anzahl der Besuche haben.

Unbefriedigend ist noch Folgendes:

a) Die Ergebnislisten werden durchweg von aktuellen Bildern angeführt. Die zeitliche Unabhängigkeit der Qualitätsindizes wird noch nicht ausreichend abgebildet.

b) Bei Mitgliedern mit sehr aktivem Followerkreis findet eine Überkompensation statt. Die Vergleichbarkeit mit anderen Accounts wird dadurch beeinträchtigt.


Auf die Lösung dieser beiden Probleme gehe ich möglicherweise in einem weiteren Artikel ein.

St. Johann in Tirol
25. Januar 2021

Ich danke Sami Serola und Arlequin Photographie für die Denkanstöße und die konstruktiven Diskussionen, die mich zu diesem Artikel motiviert haben.



27 comments

Sami Serola (inactiv… said:

What is good about current 'Explore > Gallery' is that there is only one image per account picked. If groups or algorithms are applied, the same should be implemented. Or at least limit the number per one account somehow.

Also one's own comments should be excluded.

But I also would suggest implementing "topics". A visitor may wish to find the best still life images or the best flower shots. So, maybe for example keywords could be used as well, and give some weight for them.

And the fact that someone sees the trouble to give keywords at all, and write a long caption, and put the image on the map, could get some value as well.
3 years ago

Bergfex replied to Sami Serola (inactiv…:

Thank you for the good additional ideas.
3 years ago

Bergfex said:

3 years ago

Sami Serola (inactiv… replied to Bergfex:

Interesting indeed. I may try it later.
3 years ago

Tanja - Loughcrew said:

Sehr interessant!!!! Danke :)
3 years ago ( translate )

FMW51 said:

Das sieht nach einem sehr guten Ansatz aus.
Danke an alle Beteiligte
3 years ago ( translate )

Bergfex said:

Inzwischen habe ich die Lösung für das erste Problem gefunden. Das Punktdiagramm zeigt nämlich ein typisches exponentielles Abklingverhalten auf. Die Formel dafür ist:
Q(t) = Q * exp (-k*t). Für die ersten Stichproben wurde k = 0,30 ... 0,40 ermittelt.
Ich werde dies an Hand weiterer Stichproben weiter untersuchen und in Kürze in einem Folgeartikel darüber berichte.
3 years ago ( translate )

* ઇઉ * replied to Bergfex:

Thank you very much for your effort, Bernhard and Sami.

As I have to agree with your criticism, 10. b, the number of faves, comments and possibly of visitors cannot be a fair selection criterion when it comes to evaluating real "best pictures (on or) from ipernity". In this respect, I see the creation of the new group "IPERNITY - Ambassador pictures" with some concern, which would be another of similar, already existing groups. But before going deeper into that, I would like to wait for your second article on this topic and the framework of that group.
3 years ago

Guydel said:

Et le facteur émotion dans tout ça ? pour moi une photo, comme un tableau ou une sculpture, doit se ressentir et non s'analyser ! Une analyse bien délicate à faire et une solution bien délicate à trouver !!! Bon courage et amitiés !
www.ipernity.com/group/2321502
3 years ago ( translate )

Pics-UM replied to Guydel:

Das sehe ich grundsätzlich genauso, Guydel. Bei unserer heutigen Gallery ist der emotionale Faktor ja vorhanden. Allerdings nicht immer bezogen auf die Qualität des Bildes, sondern oft auch auf die Sympathie gegenüber dem Fotografen/der Fotografin. Das ist soweit auch in Ordnung aber für ein auf Qualität angelegtes "Aushängeschild" nicht wirklich hilfreich.

Ausgehend vom oben beschriebenen Ziel den ipernity-Interessierten und neuen IP-Mitgliedern eine Auswahl guter Bilder anzubieten, halte ich durch einen Algorithmus schon für möglich und sinnvoll.
Für alles weitere (Fotowettbewerbe, Foto des Tages, Foto des Monats oder ähnliches) hielte ich eine Jury für notwendig. Unter Umständen könnte man da einen Algorithmus für eine Vorauswahl nutzen um den Arbeitsaufwand zu reduzieren.
3 years ago ( translate )

Berny said:

Sehr interessant und danke für die große Mühe. Wie man allerdings das Hunting nach favs und comments herausfiltert, ist fast unmöglich und macht große Unterschiede. Es gibt "versteckte" accounts mit qualitativ sehr hochwertigen Fotos, die aber in der community nicht sehr aktiv sind und daher auch wenig feedback erhalten. Die fallen immer durch den Rost.
3 years ago ( translate )

* ઇઉ * replied to Berny:

Re: "Es gibt "versteckte" accounts mit qualitativ sehr hochwertigen Fotos, die aber in der community nicht sehr aktiv sind und daher auch wenig feedback erhalten. Die fallen immer durch den Rost", precisely because of such potential "best pictures from or on ipernity" I have deliberately not yet set any minimum requirements for faves, comments, number of visitors or something similar for the group "● IPERNITY ☆ Masterpiece (...) " that I have taken over. However, the images must meet the minimum standard of a masterpiece in terms of technical quality, composition and originality. This is clear from the group description. Images that do not meet the minimum requirements of a masterpiece will be rejected or deleted without comment, as announced, because it is not about mass, but about class, especially with masterpieces.
3 years ago ( translate )

Boarischa Krautmo said:

I'm afraid this algorithm might deliver incorrect results......
see here:
www.ipernity.com/doc/b_k/50556882
;-)
3 years ago

* ઇઉ * replied to Boarischa Krautmo:

:)))
Not, when an algorithm is designed to exclude not only your own comments, but also multiple comments from others.
Years ago, after some members tried to trick the then algorithm for "What's Hot!", now "Gallery" by constantly continuing comments, a new algorithm was used. But even that can't prevent manipulations in the end, as you can see exemplarily in your said picture. :)
3 years ago

Wanderphotograph said:

Ich glaube die Frage der Präsentation der besten Bilder gibt es, seit es Fotoforen gibt. Und es sind bestimmt schon tausende Diskussionen darüber geführt worden. Und immer wieder kommt die Idee mit dem Wettbewerb.

Ich habe früher hin und wieder bei Wettbewerben mitgemacht und noch häufiger die Ergebnisse angeschaut. Und dabei habe ich einiges festgestellt: Die Schwarmintelligenz funktioniert bei Wettbewerben nicht wirklich gut. Zu viele Plagiate und Einheitsbrei - interessante Sichtweisen haben kaum eine Chance. Die Ergebnisse sind langweilig, das Niveau eher mittelmäßig.
Am besten funktionieren immer noch (Fach-) Jurys, zumindest auf längere Sicht.

Einmal habe ich jedoch einen interessanten Mittelweg gesehen. Nur die Teilnehmer des Wettbewerbs dürfen bewerten. Und jeder davon kann seine 5 Favoriten auswählen, nur sich selbst nicht. Und man kann auf 2 Arten gewinnen: 1. als Sieger des Wettbewerbs und 2. wenn man die 5 Erstplatzierten richtig getippt hat. Auf diese Weise ist sichergestellt, daß die "kleine Schwarmintelligenz" selbst eine gewisse Kernkompetenz beim ausgeschriebenen Thema hat und daß es keine Gefälligkeits- oder Abwertungs-Stimmen gibt. Die Ergebnisse sind recht interessant.

Aber das Hauptproblem bleibt, es ist ein Wettbewerb. Und ein Wettbewerb muß sich für eine gewisse Vergleichbarkeit thematisch einschränken.
Hier geht es aber nicht um einen Wettbewerb, sondern auch um eine gewisse Vielfalt.
Und vergessen wir nicht, auschließlich hochklassige Bilder können auch abschreckend wirken.

Die Idee mit der KI von Excire fand ich zuerst interessant, weil neu und habe das mal getestet - sie liebt offenbar colorgrading und mag keine klaren Sachaufnahmen oder technische Photos. Inhaltlich ist sie völlig wertlos. Dieser Weg würde also einen ziemlich langweiligen Einheitsbrei produzieren.

Was ich jedoch immer wieder interessant finde ist, wenn Künstler, egal ob Photographen, Musiker, Maler usw. oder auch normale Menschen ihre Favoriten und Einflüsse vorstellen. Da kommen häufig echte Augenöffner. Ein Schmied hat nunmal eine völlig andere Sichtweise als ein Zahnarzt.

Wie wäre es denn, wenn jede Woche oder Monat 3 Mitglieder zufällig nominiert werden, um ihre 20 oder 30 Favoriten des letzten Jahres oder Monats aktiv auszuwählen? Ob mit oder ohne grobes Thema, kann man ja ausprobieren.
Als Ergänzung dazu wäre ein kurzer Text des jeweiligen Mitgliedes zu seiner Auswahl überlegenswert, auch in Hinsicht SEO-Optimierung.
Auf diese Weise würde man:
- qualitatives Grundniveau sichern
- inhaltliche und qualitative Vielfalt zeigen
- nicht ins Elitäre abdriften
3 years ago ( translate )