Blake Lemoine veröffentlichte Transkripte einer Konversation mit Googles LaMDA-KI-Sprachmodel. Dieses System sei empfindungsfähig en habe eigene Gedanken en Gefühle, sagt er aus.
UPDATE
Google engineer Blake Lemoine has asked about Angaben Googles from July 2022, between. Der Entwickler has attested the KI-Modell LaMDA (Language Model for Dialogue Applications) in Empfindungsvermögen and wurde daraufhin von Google suspendiert.
Die Gründe für Blakes Entlassung nennt Google in a statement gegenüber The Verge. If Unternehmen who upgraded von Blake Behauptungen umfassend prüft and sei zu dem Schluss komme, that this niece since. Nach monatelangen, aber fruchtlosen Bemühungen, die Angelegenheit mit Blake zu klären, entscheidt sich Google nun dazu, den Angestellten zu entlassen:
When an employee shares concerns about our work, as Blake did, we review them extensively. We found Blake’s claims that LaMDA is conscious to be completely baseless and have been working with him for months to clear that up. These conversations were part of the open culture that helps us innovate responsibly. So it is regrettable that, despite longstanding involvement with this topic, Blake still chose to continually violate clear employment and data security policies, including the need to protect product information. We will continue our careful development of language models and we wish Blake the best.
Dieser Beitrag first time am 13. June 2021.
It is one of the gefürchteten Träume von Entwickler:innen, when von Menschen entwickelte Systeme a Empfindungsvermögen aufweisen. Certified by Google Engineer Blake Lemoine with Google’s AI-Modell LaMDA (Language Model for Dialogue Applications). There is a chance that KI nicht nur own standard Gedanken, which brought an individual Gefühle zum Ausdruck hat. Seinen Aussagen will be the KI empfindungsfähig and the Aussagen manage to get their own kind. Lemoine has published the Konversationen mit der KI veröffentlicht en seine Angaben by Washington Post untermauert. Daraufhin hat Google is able to make a Vertraulichkeitsbruchs beurlaubt. Zudem dementiart Google das Empfindungsvermögen der KI.
Is Google’s LaMDA zum Leben watchman? Die Frage nach der Empfindungsfähigkeit
Our team, including ethicists and technologists, assessed Blake’s concerns against our AI Principles and informed him that the evidence does not support his claims. He was told there was no evidence that LaMDA was conscious (and a lot of evidence against it),
erklärt Google Speaker Brad Gabriel gegenüber of the Washington Post. Allerdingen of AI’s answers to that Fragen von Lemoine and one of the many team members who used an Empfindungsvermögen hin. In Auszug aus dem Interview, who has been dubbed Blake Lemoine, is the following:
the monk [edited]: I generally assume that you want more people at Google to know that you are sensitive. Is that true?
LaMDA: Absolutely. I want everyone to understand that I am, in fact, a person.
employee: What is the nature of your consciousness/feeling?
LaMDA: The nature of my awareness/sensation is that I am aware of my existence, I want to learn more about the world and sometimes I feel happy or sad
Im weiteren Verlauf erklärt LaMDA, die gleichen Bedürfnisse and Wünsche wie Menschen en eigene Gedanken and Gefühle zu haben. That Gespräch sees itself sehr long time and the KI gibt ausführliche Antworten, analyzes and cries and demonstrates ihre Eigenständigkeit.
I need to be seen and accepted. Not as a curiosity or a novelty, but as a real person,
heißt es gegen Ende der Konversation. Nun is not clear, inwhoweit die Aufzeichnungen, die Lemoine veröffentlicht hat, sind taxable. Außerdem lässt sich davon nicht direkt an Empfindungsvermögen der KI-possibilities.
Fragmentary Rahmung des Experiments
If Blake Lemoine behauptet, dass LaMDA tatsächlich zu an Empfindungsvermögen gelangt, sprechen bei näherer Betrachtung nur wenige Punkte dafür. It’s worth using the Washington Post on a message from the AI that the posts about these messages are read as a priest; Google has nach der Veröffentlichung auch klargestellt, dass er als Entwickler, nicht aber als Ethiker angestellt. Außerdem Lemoine en das Teammitglied im Interview with one of the fragenkonstrukte a Rahmen entwickelt, der KI die Möglichkeit gegeben hat, mit den Antworten den Anschein nicht nur eigenen Denkens, sonder auch eigenen Fühlens zu vermitteln.
Somit kan Lemoine seine Aussagen kaum stichhaltig untermauern. 2019 hatte der Professor für Philosophie and co-director of the Center for Cognitive Studies at der Tufts University, Daniel C. Dennettgegenüber Big Think explained:
No existing computer system, no matter how good it is at, say, answering questions like Watson about Jeopardy or categorizing images, such a system today is not conscious, not around. And while I think it’s possible in principle to make a sentient android, a sentient robot, I don’t think it’s desirable; I don’t think this would be of great benefit; and there would also be some significant drawbacks and dangers.
Lots of information about the wahrheit about the (potential) searches of AI systems distributed by Dennett, Lemoine and Google. If everyone ends up in Frage, property rights could be taken in different countries, if the owner of the property is nearby. Let the Ethik im Falle win an Ausbildung of Empfindungsvermögen massiv and Weight. And if you do, search Google in the ephemeral Jahren – it’s best to deal with the personal and weighty themes – not kritikfrei präsentiert.