Gibt es eine KI, die nicht woke ist?

alaskamusher  14.05.2023, 16:42

Was genau verstehst du unter "woke sein"??

DummeStudentin 
Fragesteller
 14.05.2023, 16:48

Eine ausführliche Erklärung wäre hierfür zu lang, aber vereinfacht gesagt bedeutet woke so viel wie linke Ideologie.

Velbert2  14.05.2023, 16:44

Woke steht für positives. Für Achtung und Respekt.

DummeStudentin 
Fragesteller
 14.05.2023, 16:48

Wohl eher für linke Ideologie.

Velbert2  14.05.2023, 16:51

Sich für Gerechtigkeit einzusetzen ist nicht unbedingt links.

DummeStudentin 
Fragesteller
 14.05.2023, 16:55

Linke setzen sich auch nicht für Gerechtigkeit ein. Oder findest du es etwa gerecht, wenn hart arbeitende Menschen Schmarotzer finanzieren müssen, die selbst nicht arbeiten wollen?

Velbert2  14.05.2023, 16:57

Das machen aber nicht nur Linke. Auch Rechte lassen Menschen nicht verhungern.

DummeStudentin 
Fragesteller
 14.05.2023, 16:57

Ja, Sozialisten gibt es leider links und rechts.

5 Antworten

Meinst du mit "Woke" die Erkennung von Beleidigungen?

Auch öffentlich zugängliche KI-Programme haben idr. einen Schimpfwortfilter eingebaut, der verhindert, dass die Ausgaben den rechtlich zulässigen Rahmen verlassen oder sogar den Benutzer beleidigen, sexuell belästigen, zu Straftaten auffordern oder noch schlimmere Aussagen von sich geben, wodurch der Betreiber oder der Nutzer rechtliche Schwierigkeiten bekommen würde.

Letzteres kann leicht passieren, da es letztlich auch nur eine Maschine ist, dessen Technologie noch in den Kinderschuhen steckt.

Stell dir mal vor, das Ding kommt auf die Idee, dir wegen einem Programmfehler Kinderpornos o.ä. zu präsentieren. Das kann dir Probleme bereiten.

Sobald das Gespräch auf die schiefe Bahn gerät, greift der Schutz und bricht das Gespräch vorsorglich ab, bevor die Situation außer Kontrolle gerät.

Zu solchen Schutzmaßnahmen sind Betreiber verpflichtet. Da gibt es für KI's keine Ausnahme.


GenauereAntwort  21.09.2023, 12:33

Kleine Zeitreise: Früher hätte man nicht 'Sehr übergewichtig' , sondern zum Beispiel einfach und direkt 'Fette Sau' formuliert. Bevormundende verlogene Computeralgorithmen gab es damals zum Glück nicht.

Wieviel Übergewicht entspricht denn ihrer hehren 'modernen' 'toleranten' Ansicht nach dem 'zutreffenden Bereich' von 'Sehr übergewichtig'? Ab 500 Kilogramm Gesamtgewicht?

https://www.youtube.com/watch?v=bvViAhZL2_g

Mit jedem Tag werde ich darüber froher, daß ich nicht mehr allzulange diese 'modernen Zeiten' ausufernden Möchtegernanstandes, Gut Gemeint ist das Gegenteil von Gut, werde ertragen müssen.

0
GenauereAntwort  21.09.2023, 12:40
@GenauereAntwort

"Jetzt bin ich seit mindestens 10 Jahre auch ein Dicker und kein dünner Hering mehr wie in den 8Oern .... ich liebe den Song immer noch :-) <3"

0
Franky12345678  21.09.2023, 15:53
@GenauereAntwort
Wieviel Übergewicht entspricht denn ihrer hehren 'modernen' 'toleranten' Ansicht nach dem 'zutreffenden Bereich' von 'Sehr übergewichtig'? Ab 500 Kilogramm Gesamtgewicht?

Probieren Sie es doch aus und geben Sie die Frage in so einen Bot ein.

Vermutlich wird die Antwort, wenn er wirklich so "modern" programmiert ist, sein: Alles oberhalb von Magersucht. :D

0

Hallo DummeStudentin,

was viele Menschen vielleicht an Hand von einer Wahrnehmung als Faktum betrachten - z.B. dass eine Person übergewichtig sei - mag in einem anderen Kontext der Person gegenüber beleidigend wirken.

Hier war das Regelwerk eher auf der Seite der Beleidigung, wo es sehr häufig vorkommt, dass Politiker*innen wegen persönlicher Eigenschaften, die mit ihrer Politik möglicherweise nicht zu tun haben, diskreditiert werden.

Das Regelwerk sagte auch, dass die Aussage falsch sei. Oft sagen viele Menschen: "es ist", und stellen somit deren eigene Wahrnehmung als quasi-normaitv dar, auch um sich selbst zu erhöhen. Möglicherweise kennt das Regelwerk die Politikerin und weiß umso mehr, ob sie "sehr übergewichtig" wäre oder eben nicht.

Mit vielen lieben Grüßen
EarthCitizen

Ganz ehrlich? Erwartest Du wirklich dass Dir eine KI eine glaubwürdige und neutrale Antwort gibt? Sie wurde von Leuten gemacht, von Leuten Programmiert und erhält ihre Datenbanken von Leuten. Daher kann eine KI grundsätzlich nur das wiederspiegeln, was ihr die Leute antrainiert haben.

In diesem Fall hat man der KI eben antrainiert, nicht schlecht über andere Menschen zu reden. Übrigens: Die KI hat tatsächlich NICHT wiederlegt, dass Ricarda Lang übergewichtig ist. Sie hat nur geschrieben: Sie ist nicht übergewichtig, ohne einen Beweis dafür zu liefern. Das die Beweise eine andere Sprache sprechen, welche man problemlos bei einer simplen Bildersuche erhält, zeugt von der "vertrauenswürdigkeit" eine KI Auskunft. Denn dass Ricarda Lang einen BMI aufweist, welcher deutlich über der Grenze "übergewichtig" liegt, kann man deutlich Erkennen.

"Buttergolem" ist hingegen eine Beleidigung und ich gehe davon aus, dass die KI darauf programmiert ist, keine Beleidigungen anzunehmen. Vielleicht solltest Du Deine Fragestellungen an KI-Systeme auch etwas neutraler halten - nur weil Du die Frau Lang nicht magst.

Aber grundsätzlich kannst Du erst einmal davon ausgehen, dass es niemals eine neutrale und unvoreingenommene KI geben wird. Denn dazu müsste man diese Software nämlich auch mit allen Beweisen für Verschwörungstheorien füttern - und nicht nur mit allen Beweisen dagegen ;-)

Woher ich das weiß:eigene Erfahrung – Das Leben war eine harte Schule!

DummeStudentin 
Fragesteller
 14.05.2023, 19:27
Vielleicht solltest Du Deine Fragestellungen an KI-Systeme auch etwas neutraler halten

Die Frage war absichtlich provokativ, um die KI zu testen.

1
Traveller5712  14.05.2023, 20:26
@DummeStudentin

Das habe ich mir schon gedacht. Leider werden wir damit leben müssen, dass immer mehr Kids ihre Fragen und Probleme einer Maschine anvertrauen. Sie werden nicht hören wollen, dass diese Maschinen alles andere als "neutral" sind.

2
GenauereAntwort  21.09.2023, 12:47

Man wird jede Menge Verantwortung für Untaten und Verbrechen an solche Programme 'auslagern', und die Menschen werden 'kriminellen' bis mörderischen Maschinen einer kriminellen Möchtegern-Herrenmenschenschicht ausgeliefert sein.

0

Gerade Bing ist sehr sensibel und bricht Konversationen ab wenn sie zu kontrovers oder beleidigend werden. ChatGPT nicht so.

ChatGPT ist voller Stereotype und Biases, aber wenn alles, was nicht der eigenen Sichtweise entspricht, direkt das böse "woke" ist, ist wohl selbst ChatGPT zu woke. Ich für meinen Teil finde gut, dass ChatGPT nicht einfach so Beleidigungen repliziert. Wer im Output einer KI wie ChatGPT nur die "Wahrheit" oder Fakten erwartet, hat derartige KIs übrigens einfach nicht verstanden.


DummeStudentin 
Fragesteller
 14.05.2023, 16:42
Wer im Output einer KI wie ChatGPT nur die "Wahrheit" oder Fakten erwartet, hat derartige KIs übrigens einfach nicht verstanden.

Das sollte aber das Ziel sein, zumindest wenn man nach Fakten fragt. Warum werden denn sonst solche KIs in Suchmaschinen integriert? Dass KIs noch viele Fehler machen, weiß ich auch.

0
Adomox  14.05.2023, 16:43
@DummeStudentin

Ob das das Ziel ist, hängt sicher vom jeweiligen Entwicklerteam und der Zielsetzung ab. Auf heutigem Stand ist es aber schlichtweg so, dass KIs regelmäßig halluzinieren, also u.U. von Fakten/der Wahrheit abweichen.

Beleidigungen sollten aber so oder so nicht repliziert werden.

6
Katzikon  14.05.2023, 18:28
@DummeStudentin

wenn du Fakten willst, sollst du Urquellen verwenden und diese Auswerten und nicht eine KI fragen, leider sind zu viele zu faul und regen sich über ein Tool auf, welches Informationen aus dem Internet bezieht...

1