Facebook benutzt nun künstliche Intelligenz um Nutzer zu identifizieren, die selbstmordgefährdet sind. Für diese Funktion benutzt Facebook die sogenannte „Natrual-Language-Processing“ Methoden und „Pattern Recognition“.

Der Suchalgorithmus für Facebook Posts identifiziert Traurigkeit und Depression. Zudem, findet der Algorithmus Posts, die kommentiert werden mit „Bist Du okay?“ oder „Ich finde es sehr traurig, dass es Dir schlecht geht.“
Findet Facebook einen solchen Post, dann wird dieser umgehend an das „Networks community operations Team“ übermittelt, dieses bestätigt dann, dass es sich um eine Person handelt, die potenziell suizidgefährdet ist und gibt dem Nutzer Hilfestellung.
Dem Nutzer werden Hilfestellungen angeboten, wie „Rede mit einem Freund darüber“ oder „Mach einen Termin mit einem Psychologen aus“.

Fachleute sagen, dass dies ein sehr guter Anfang ist, Facebook hier jedoch noch viel mehr machen könnte, als nur eine Hilfestellung anzubieten.

Doch was soll und kann Facebook tun?

Was sollte für Facebook erlaubt sein?

Sollte es Facebook erlaubt werden Freunde oder die Familie des Nutzers zu kontaktieren oder gar keine Behörde?

Ich denke, diesen Punkt soll und muss man sehr kritisch diskutieren. Wenden wir den Blick ab von der virtuellen Welt. Gibt eine Person, in der realen Welt, eine Selbstmord Drohung ab, so wird diese Person, in der Regel unter Zwang, einem Psychologen vorgestellt.

Die Person hat keine Entscheidung, ob sie erst einmal mit Freunden oder nahen Verwandten über die Probleme sprechen möchte.

Meiner Meinung nach muss Facebook in dieser Entscheidung sehr stark mit Selbstmord Präventionsorganisationen zusammenarbeiten, um eine geeignete Lösung zu finden.

Quelle: http://www.bbc.com/news/technology-39126027, 23.10.2017