Kompensation Für Das Tierkreiszeichen
Substability C Prominente

Finden Sie Die Kompatibilität Durch Zodiac -Zeichen Heraus

Google AI nimmt jeden bedeutungslosen Satz, den Sie geben, und geben ihm eine Bedeutung

Zu Ihrer Information

Obwohl Es In den letzten Jahren wurde diese Integrationen in immer mehr Leben in unserem Leben integriert. KI war anfällig dafür, etwas zu tun, das als Halluzinat bezeichnet wird. Wenn sie falsche Informationen präsentiert, als ob es wahr wäre oder einfach etwas erstellt.

Der Artikel wird unter der Werbung fortgesetzt

Diese Halluzinationen können entweder ernst oder albern sein, und wenn sie albern sind, können die Dinge schnell außer Kontrolle geraten. Ein typisches Beispiel: Wenn ein X (ehemals Twitter -Nutzer) bemerkte, dass Sie jede Gruppe von Wörtern zusammenstellen konnten, und Google Gemini Ai würde es als Idiom oder gemeinsamen Ausdruck sehen und ihm eine Bedeutung geben. 'Zwei trockene Frösche in einer Situation' sind nur ein Beispiel. Folgendes wissen wir.

 Das Gemini -Logo.
Quelle: Google
Der Artikel wird unter der Werbung fortgesetzt

Die Gemini -KI von Google ist der Meinung, dass 'zwei trockene Frösche in einer Situation' ein häufiger Ausdruck sind.

In einem Beitrag von Matt Rose (@rose_matt) erklärte er, dass er Gemini um die Bedeutung einer Reihe von Wörtern gefragt habe, die nichts bedeuten, und eine Erklärung erhalten.

'Heute gelernt, dass Sie jeden Unsinn eingeben können Google Gefolgt von 'Bedeutung', und KI wird annehmen, dass Sie nach einem bekannten menschlichen Satz suchen und verzweifelt das einfallen lassen, was sie hält ', schrieb er.

Das Beispiel, das Matt verwendete, war 'zwei trockene Frösche in einer Situation', die Gemini erklärte, war ein 'metaphorischer Ausdruck, der oft verwendet wurde, um eine schwierige oder unangenehme soziale Situation zu beschreiben. Es ist eine spielerische Art zu sagen, dass eine Gruppe von Menschen, insbesondere zwei, in einer prekären oder unangenehmen Prognose ist.'

Die Ergebnisse, wenn Sie den Begriff jetzt durchsuchen, haben die KI entfernt, wahrscheinlich weil dies nicht der beste Look für Gemini war.

Der Artikel wird unter der Werbung fortgesetzt

Wie dieser Vorfall deutlich macht, macht Gemini manchmal nur etwas aus, wenn er keine gute Antwort hat, vorausgesetzt, die Person, die nach dem Begriff sucht, hat etwas im Sinn. Obwohl dies ein ziemlich niedriges Beispiel ist, spricht es für die Art und Weise, wie diese Ergebnisse unzuverlässig sind, insbesondere wenn Sie nach etwas suchen, das möglicherweise relativ dunkel ist.

Der Artikel wird unter der Werbung fortgesetzt

Andere Leute versuchten das Gleiche.

Nachdem Matt sein Beispiel auf X gepostet hatte, versuchten andere Benutzer die Hände, ein bedeutungsloses Idiom zu erstellen und zu sehen, welche Art von Definition Google es gab.

Eine Person versuchte dies mit der Phrase 'Gefühle können verletzt werden, aber Fish erinnern sich' und erhielt die Erklärung, die Sie vielleicht erwarten könnten, dass jemand, der nicht studiert hat, um den Test zu geben, wenn er die Frage ohnehin beantworten musste.

Ein anderer Person versuchte es 'Big Winky in der Pfanne', was jetzt keine Redewendung ist, sollte aber wahrscheinlich in naher Zukunft sein.

Obwohl es nicht für jeden Benutzer funktionierte, stellten viele fest, dass sie für ihre erfundenen Phrasen erfundene Definitionen erhalten konnten, und signalisierte, dass KI vor allem dazu gedacht ist, den Benutzern eine Antwort zu geben, auch wenn diese Antwort irreführend oder geradezu falsch ist.

Wir sind noch nicht auf die Bühne gekommen, wo die KI wohl zugeben, was wir nicht wissen. Wie jeder, der jemals in der Therapie war, weiß, dass es mindestens die Hälfte der Schlacht ist, zuzugeben, dass das, was Sie nicht wissen, nicht die Hälfte der Schlacht ist.