Wissenschaftler entwickeln ‚virtual partner‘, das sich entlocken, emotionale Antworten von einem menschlichen partner in Echtzeit

Können Maschinen denken? Das ist, was renommierte Mathematiker Alan Turing versucht, zu verstehen, zurück in den 1950er Jahren, als er eine Nachahmung Spiel, um herauszufinden, ob ein menschlicher Fragesteller könnte sagen, ein Mensch von einer Maschine basiert ausschließlich auf Konversation entzogen physikalischen cues. Der Turing-test wurde eingeführt, um zu bestimmen, eine Maschine, die die Fähigkeit zu zeigen intelligentes Verhalten, die äquivalent ist zu oder gar nicht zu unterscheiden von der eines menschlichen. Turing hauptsächlich darum gekümmert, ob Maschinen, die zusammenpassen könnten, um Menschen, die geistigen Kapazitäten.

Aber es gibt mehr Menschen als intellektuellen Fähigkeiten, so Forscher vom Center for Complex Systems and Brain Sciences (CCSBS) in der Charles E. Schmidt College of Science an der Florida Atlantic University dargelegt, um die Frage zu beantworten: „Wie funktioniert es „fühlen“ zu interagieren behaviorally mit einer Maschine?“

Sie erstellt das entspricht einer „emotionalen“ Turing-test, und entwickelt einen virtuellen partner, die in der Lage ist, zu eruieren, emotionale Antworten von seinem menschlichen partner, während das paar engagiert sich in Verhaltens-Koordination in Echtzeit. Die Ergebnisse der Studie mit dem Titel „Enhanced Emotionalen Reaktionen in den Sozialen Koordination mit einer“ Virtual Partner,“ sind kürzlich im International Journal of Psychophysiologie. Die Forscher entwickelt, mit dem virtual partner, damit Ihr Verhalten wird ausschließlich durch mathematische Modelle von Mensch-zu-Mensch-Interaktionen in einer Weise, die es ermöglicht, die Menschen zu interagieren mit der mathematischen Beschreibung Ihrer sozialen selbst.

„Unsere Studie zeigt, dass Menschen zeigten eine höhere emotionale Erregung, als Sie dachten, der virtuelle partner war ein Mensch und keine Maschine, obwohl in allen Fällen war es eine Maschine, dass Sie die Interaktion mit“, sagte Mengsen Zhang, Blei-Autor und ein Ph. D.-student in FAU ist CCSBS. „Vielleicht können wir uns denken, Intelligenz in Bezug auf die koordinierte Bewegung innerhalb und zwischen den Gehirnen.“

Der virtual partner ist ein wichtiger Teil eines Paradigma, entwickelt an der FAU aufgerufen, die Menschliche Dynamischen Clamp – ein Zustand-von-die-Kunst-Mensch-Maschine-interface-Technologie, ermöglicht es den Menschen zu interagieren mit einem Computer-Modell, verhält sich sehr viel wie der Mensch selbst. In einfachen Experimenten, die Modell – über den Empfang von Eingabe von der menschlichen Bewegung – Laufwerke ein Bild von einer beweglichen hand, die angezeigt wird, auf einem Bildschirm. Zum Abschluss der reziproken Kopplung, das Thema sieht und koordiniert mit dem bewegten Bild, als ob es eine Reale person beobachtet, die durch eine video-Schaltung. Diese soziale „Ersatz“ sein kann, genau abgestimmt und gesteuert werden – sowohl durch den Experimentator und durch die Eingabe des menschlichen Subjekts.

Internationales team von Wissenschaftler entwickeln neues Modell für die früheren Behandlungen für AMD

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.