Vor kurzem haben wir die Macht der KI in sozialen Netzwerken gesehen, um fehlerhafte Inhalte zu identifizieren und zu entfernen, und anscheinend folgt LinkedIn in diesem Fall Facebook, Twitter und Pinterest.
Wie erkennt und entfernt AI unangemessene Inhalte von LinkedIn?
EIN Post Der heute im Blog der Microsoft-eigenen Plattform veröffentlichte Blog erklärt, wie LinkedIn mithilfe künstlicher Intelligenz Beiträge findet und entfernt. Der Softwareentwickler Daniel Gorham berichtet, dass LinkedIn vor der Übergabe des Auftrags an die KI eine Sperrliste verwendet hat, die von Menschen kuratierte Wörter und Ausdrücke enthält, die Foul definieren. Aber natürlich waren enorme Anstrengungen erforderlich, um Fehlalarme zu identifizieren und die tatsächlich fehlerhaften Inhalte oder Konten zu löschen, da LinkedIn mehr als 660 Millionen Mitglieder und 303 Millionen monatlich aktive Benutzer hat. Die Liste hat also tatsächlich ein wenig funktioniert.
In dem Blog-Beitrag wurde detailliert beschrieben, wie das Unternehmen jetzt mit Profilen mit unangemessenen Inhalten umgeht, bei denen es sich möglicherweise um Obszönitäten, Anzeigen für illegale Dienste usw. handelt. Jetzt verwendet LinkedIn ein Faltungsnetzwerk (eine Art Algorithmus, der üblicherweise zur Analyse von Bildern verwendet wird), das auf Profilen öffentlicher Mitglieder trainiert und bereits identifiziert wurde Die zuvor als falsch positiv gekennzeichneten Profile haben diese Profile speziell in das Training einbezogen.
LinkedIn wird auch Microsoft-Übersetzungsdienste verwenden, um „schlechte“ Inhalte in anderen Sprachen auszusortieren.