KI in den KInderschuhen

bzw. -stiefeln. Und das im wahrsten Sinne des Wortes:

Gesucht wurde nach einem Monitor :slight_smile:

Gruß,

KannItverstan

1 Like

Hallo,

so witzig ist das gar nicht. (Ich wüsste aber auch kein besseres Brett.) Viele Menschen glauben, dass KI wahnsinnig intelligent sind, schließlich schlagen sie in Schach und Go inzwischen jeden Menschen. Aber diese KI begreift nicht ohne weiteres, dass wenn Susi einkaufen geht, Susi den eigenen Kopf mitnimmt. KI sind auch nur Programmroutinen. Die durchschnittliche Intelligenz einer KI liegt auf dem Niveau eines 1-jährigen Kindes - mir einer wahnsinnig gut ausgeprägten Inselbegabung. Die Go-Ki kann man nicht eben mal schnell umbauen, um sie zur Sprachanalyse zu benutzen. Und die Sprachanalyse ist nicht in der Lage, zur Bildanalyse benutzt zu werden.

Apropos Bilderkennung. Neulich las ich, dass die Google Bilderkennung, die an sich schon recht gut funktioniert, in bestimmten Situationen nicht zuverlässig zwischen afrikanisch stämmigen Menschen und Gorillas unterscheiden kann. Und dann gab es da die KI bei Amazon, die testweise die Bewerbungen sichten sollte, damit sie objektiver entscheidet - und weiße Männer bevorzugte.

Und solche KI sollen an Bahnhöfen Terroristen erkennen. Oder die Ziele der CIA für Drohnenangriffe in Afghanistan und Pakistan identifizieren …

Nicht witzig
Grüße
Pierre

Ja. Bin dafür, die KI-Entwicklung zu stoppen. Mit Rassismus wollen wir nix zu tun haben! :expressionless:
Andererseits… kann man einem 1-jährigen Kind einen Vorwurf machen, wenn es keine Gorillas bei Amazon mag?
Immerhin läßt sich Rassismus auch in NI ganz hervorragend reinprogrammieren - dass hier kein Schutz vor „Schadsoftware“ greift, ist weit bedenklicher als zweifelhaft programmierte Computeralgorithmen.

Gruß,

Kannitverstan

1 Like

Das wird nichts werden. „KI“ ist ja nur der schön klingende populäre Werbebegriff für Algorithmen, die nach vorgegebenen Mustern Zusammenhänge wieder erkennen und mit einer bestimmbaren Wahrscheinlichkeit Voraussagen über zukünftige Ereignisse machen. Sowas kannst Du nicht generell, abschließend und zuverlässig verbieten. Man sollte viel mehr die Sinne der Nerds, Wissenschaftler, Journalisten und Politiker schärfen, die so was bewerten. Denen muss bewusst werden, dass jede Technik ihre Schwächen und Grenzen hat.

Wenn ich in dem Zusammenhang höre, wie sich unsere Politiker im Rahmen der Diskussion zur „Digitalisierung“ darüber den Mund zerfetzen, dass Deutschland mehr in KI investieren muss … da fällt mir nichts zu ein. Sie haben es einfach nicht begriffen. Aber Mathe ist auch ein schwieriges Fach.

Daher noch mal: nicht witzig

Grüße
Pierre

P.S.: locker bleiben :wink:

1 Like

Sowieso. Wir sind immerhin im Witzebrett :wink:

Hallo,

nein, das sind andere Systeme. Die sind dazu da, um biometrische Elemente abzugleichen, und nicht dazu, automatisiert Mitarbeiter auszusuchen o.ä. Ausschließen kann ich natürlich trotzdem nicht, daß in Afghanistan statt eines afrikanischstämmigen arabischen Terroristen ein Gorilla erschossen wird.

Gruß
C.

‚We Kill People Based on Metadata‘

Nix biometrisch

Da bezog ich mich jetzt mehr auf die Überwachung an Bahnhöfen & Co. Daß automatisiert mutmaßliche Terroristen in Innenstädten weggesprengt werden, glaube ich weniger und wenn es mal einen Gorilla in einem Terroristencamp erwischt, bin ich so bös auch nicht. Der wird da kaum von Unicef zur Alphabetisierung von Terroristenkindern hingeschickt worden sein.

Hallo - Leute - ich seh ja ein, dass ich da ein ernstes Thema angeschnitten hab, aber trotzdem: Wir sind im WITZE-Brett!!
Neuer Versuch: https://www.netz.de/trends/news/japaner-bauen-witz-roboter-und-keiner-lacht

Gruß,

Kannitverstan

ok. ok. ist ja gut.

Aus einem Film über KI habe ich folgende Frage, die verschieden KI gestellt wurde, um ihrem Empathie zu testen:

Ein Mädchen steht vor einem Fester und sieht dahinter ein Püppchen. Es möchte eins haben.
Was möchte was haben?

Die Reaktionen der KI und ihrer Tester waren witzig.

Grüße