Der Knobelthread

Diskutiere Der Knobelthread im Smalltalk und Offtopic Forum im Bereich Community; Eissegler?
gshogi

gshogi

Dabei seit
02.11.2010
Beiträge
3.703
Ort
Nürtingen
Modell
R 1200 GS Bj.2010 in schwarz
1. Leise rieselt der Schnee
2. Oh Tannenbaum

4. Stille Nacht, Heilige Nacht
5. Süßer die Glocken....
7. Oh du fröhliche, oh du seelige

Jetzt ihr, sonst mach ich alle
 
willi.k

willi.k

Dabei seit
26.12.2005
Beiträge
2.379
Ort
Bergisch Gladbach
Modell
HP2E
3. Schneeflöckchen Weißröckchen
6. Am Weihnachtsbaume die Lichter brennen
9. Ihr Kinderlein kommet
 
Ziegenpeter

Ziegenpeter

Dabei seit
13.04.2019
Beiträge
1.420
Ort
In Baden, wo die Sonne lacht, über die Schwaben :)
Modell
R1250GS
Ich versuche das mal hier im Knobel-Thread, mal was ganz anderes. Fällt euch an diesem englischsprachigen Artikel etwas auf? Man sollte den Inhalt verstehen (also englisch können), es geht aber NICHT darum Stellung zum Inhalt zu nehmen.
Wenn euch nichts auffällt, ist das auch eine Aussage, die ihr posten könnt (bitte).

C902180B-194D-4CDA-89DC-280016AB4610.jpeg
 
Zuletzt bearbeitet:
FrankS

FrankS

Dabei seit
29.09.2007
Beiträge
1.887
mir fallen 2 Dinge auf: erstens ist es wohl kaum ein 'historischer Split', wenn es 1968 und 2016 schonmal passiert ist. Damit wäre der neue Split der dritte und nicht der zweite, wie im 2. Absatz geschrieben.
 
Ziegenpeter

Ziegenpeter

Dabei seit
13.04.2019
Beiträge
1.420
Ort
In Baden, wo die Sonne lacht, über die Schwaben :)
Modell
R1250GS
Ja die präsentierten Fakten sind möglicherweise nicht ganz kohärent und korrekt. Warum aber? Das bemerkenswerte an diesem Artikel ist, dass er nicht von Menschen verfasst wurde, sondern von einer „KI“, genauer von GPT-3, einem transformer neuronal network (=> Modell).

In diesen speziellen Fall bekommt das Modell Title und Subtitle als Eingabe und produziert dann als Ausgabe einen Artikel. In einer Studie wurden so generierte Artikel Personen vorgelegt und diese mussten dann (ohne weitergehende Recherche) entscheiden, ob der Artikel sehr wahrscheinlich von einer KI, wahrscheinlich von einer KI, wahrscheinlich von einem Menschen oder sehr wahrscheinlich von einem Menschen erstellt wurde. Bei diesem Artikel vermuteten nur 12%, dass der Artikel von einem Modell generiert wurde!

GPT-3 wurde 2019/20 als bisher größtes Modell entwickelt und ist sehr viel größer als bis dahin entwickelte Modelle. Es besteht aus 175 Milliarden Parametern (grob vereinfacht Neuronen) in 96 Schichten angeordnet. Es wurde mit vielen Gigabyte Daten trainiert. Diese Daten wurden aus vielen Terabyte Daten aus dem Web, Büchern, Wiki etc. extrahiert.

GPT-3 kann auch für andere Aufgabenstellungen genutzt werden, soweit diese durch die Trainingsdaten abgedeckt sind.

Kleinere Modelle sind schon jetzt vielseitig auch in unserem Alltag einsetzbar (zB. auf dem Handy Spracherkennung, Schrifterkennung in Fotos, automatische Kategorisierung von Fotos anhand des Inhalts, Swype Tastatur (dafür gibt es natürlich auch andere spezifische Algorithmen, die aber zunehmend von Modellen verdrängt werden), und vieles mehr.)

Große Modelle werden genutzt um Services zu erbringen (zB den Inhalt von Bildern zu erkennen) - macht mal eine Bildersuche „Blume mit Hand und Ring“:

BDF5EE38-AB5D-438D-B541-B44CAB6B9519.png


Um große und leistungsfähige Modelle zu erstellen, müssen verschiedene Herausforderungen gelöst werden.

Für sehr große Modelle benötigt es sehr leistungsfähige Systeme um das Modell in angemessener Zeit anzulernen. Das is teuer.

Große Mengen von validen und passenden Daten müssen gefunden oder generiert werden, um das Modell zu trainieren.

Je nach Modell können auch ungeplante und eventuell ungewollte „Dinge“ vom Modell gelernt werden. Modelle, die zB mit Daten, gesammelt von Web crawlen trainiert werden, lernen auch nicht auf den ersten Blick ersichtliche Zusammenhänge zwischen verschiedenen Begrifflichkeiten, die in den zu lernenden Daten implizit vorhanden sind (weil die Vorurteile tatsächlich existieren und sich deshalb in den Daten widerspiegeln oder weil die Trainingsdaten nicht repräsentativ gewählt wurden). Wenn also in den Trainingsdaten gewisse Vorurteile in signifikanter Menge vorhanden sind, dann kann sich das im Modell manifestieren. Ein einfaches Beispiel ist zB einmal bei Google nach Bildern für den Begriff ‚Gesicht‘ zu suchen und dann festzustellen, dass es wohl, bis auf Ausnahmen, nur weiße Gesichter gibt:

25482CEB-4443-4714-9498-6E86E03BECF0.png


GPT-3 ist nicht das Ende der Fahnenstange, im Gegenteil, die Entwicklung von Modellen beschleunigt sich.

Anfang 2021 hat Google in einem Papier sogenannte „Switch transformer“ Modelle vorgestellt. Diese werden jetzt entwickelt und werden sehr bald mehrere Billionen! Parameter enthalten können. Das ist möglich, weil es jetzt mit weiterentwickelten Methoden gelingt, den Rechenaufwand, den es benötigt um ein Modell zu trainieren, zumindest teilweise von der Anzahl der Parameter des Modells zu entkoppeln.

Es ist absehbar, dass sich damit bestehende Anwendungen noch wesentlich besser umsetzen lassen werden und auch ganz neue Anwendungsgebiete für Modelle erreichbar werden.

Während das Trainieren der größten Modelle kostenintensiv ist (Hardware / Rechenzeit / Aufbereitung der Trainingsdaten …) sind Abfragen recht günstig.

Kleinere Modelle werden extern trainiert und dann auf Endgeräte geladen, wo das Modell noch mit Nutzerspezifischen Daten weiter trainiert / personalisiert werden kann.

Modelle sind eine extrem pervasive Technologie. Alle möglichen Endgeräte sind schon oder werden darauf vorbereitet, kleinere Modelle lokal auf dem Gerät trainieren und ausführen zu können. Die neueste Generation von Smartwatch, Handy, Laptop, Computer … enthält bereits CPUs oder Co-Prozessoren die schon heute dafür optimiert sind.

Sucht mal auf euren Smartphone nach Bildern mit bestimmten Inhalten:

165B691F-27E1-47A7-A52C-6E1A4FF25968.png



Schon seit Jahren gibt es Wettbewerb und Ranglisten bzgl. der schnellsten Rechner, mittlerweile im Exaflop Bereich (Trillionen Gleitkommaberechnungen pro Sekunde) - das gibt es nun auch für die Größe von KI Modellen. Allerdings ist hier die Größe allein nicht entscheidend für die Qualität. Daten und Training sind ebenfalls wichtig.

Ich befürchte aber, dass deutsche Institutionen und Firmen auch diese neuen Möglichkeiten zaudernd und ignorant verschlafen. Bestehende quasi Sparten-Monopolisten / Oligopolisten (Facebook, Google, Amazon, Alibaba, Tencent…) werden ihren Datenreichtum nutzen können, um mit mächtigen Modellen ihre Marktmacht auszubauen und in neue Bereiche vorzudringen (Mobilität…)

Ich glaube nicht ernsthaft, dass jemand bis hierhin gelesen hat, aber ich wollte hier für Interessierte mal darauf aufmerksam machen, dass im Bereich deep learning momentan viele interessante Entwicklungen stattfinden, sich die Leistungsfähigkeit in kurzer Zeit extrem verbessert hat und dies aller Voraussicht nach so weiter gehen wird.
 
Raubritter

Raubritter

Dabei seit
26.01.2008
Beiträge
4.204
Ort
Nellenburg
Modell
Marlboro R 80 GS, Montesa 4ride
Und sogar ich habe Deine Erklärungen weitgehend verstanden. 😊

Jetzt frage ich mich woher die kabellosen Christbaumkerzen wissen wann 6 Stunden vorbei sind und eine nach der anderen binnen wenigen Minuten erlöschen. KI? 😂
 
Lewellyn

Lewellyn

Dabei seit
11.09.2017
Beiträge
6.347
Ort
Herne
Modell
R1100GS F650GS BlackTea Bonfire S
„…but that it has been shrinking…“
Ist das korrektes Englisch? Oder KI-Englisch?
 
Ziegenpeter

Ziegenpeter

Dabei seit
13.04.2019
Beiträge
1.420
Ort
In Baden, wo die Sonne lacht, über die Schwaben :)
Modell
R1250GS
„…but that it has been shrinking…“
Ist das korrektes Englisch? Oder KI-Englisch?
The Post notes that the denomination, which claims 12.5 million members, was in the early 20th century the largest Protestant denomination in the U.S. but that it has been shrinking in recent decades.

Das hört sich für mich gut an, so würde ich es formulieren. „It“ bezieht sich auf die „denomination“.

The present perfect continuous (also called present perfect progressive) is a verb tense which is used to show that an action started in the past and has continued up to the present moment

The present perfect continuous is formed using has/have + been + present participle. Questions are indicated by inverting the subject and has/have. Negatives are made with not.

  • Statement: You have been waiting here for two hours.
  • Question: Have you been waiting here for two hours?
  • Negative: You have not been waiting here for two hours.
 
Thema:

Der Knobelthread

Oben