Sozial

Yahoo eröffnet sein NSFW-detektierendes neuronales Netzwerk

Yahoos tiefes neuronales Netzmodell Caffe (Github-Code) betrachtet hauptsächlich nur pornografische Bilder.

Yahoo, Yahoo-Pornoerkennungsmodell, Yahoo Open-Source-Pornoerkennungsmodell, Porno, nsfw, nicht für die Arbeit geeignet, nsfw-Bilder, nsfw-Inhalte, neues Yahoo-Pornoerkennungsmodell, soziale Medien, Technologie, TechnologienachrichtenYahoos Caffe Deep Neural Network Model (Github-Code) wird hauptsächlich nur pornografische Bilder betrachten.

Yahoo hat sein NSFW (nicht geeignet/sicher für die Arbeit), das neuronale Netze erkennt, als Open Source bereitgestellt, sodass Entwickler an der Verbesserung des Algorithmus arbeiten können. Jay Mahadeokar und Gerry Pesavento von Yahoo erklärten in einem Blogpost, dass die Definition von NSFW-Material im Internet subjektiv und die Identifizierung solcher Bilder nicht trivial ist. Da Bilder und nutzergenerierte Inhalte heute das Internet dominieren, wird das Filtern von NSFW-Bildern zu einem wesentlichen Bestandteil von Web- und mobilen Anwendungen, sagten sie.

Während Algorithmen NSFW-Inhalte weitgehend automatisch klassifizieren; Yahoos Caffe Deep Neural Network Model (Github-Code) wird hauptsächlich nur pornografische Bilder betrachten. Jay und Gerry sagen, dass die Identifizierung von NSFW-Skizzen, Cartoons, Texten, Bildern von grafischer Gewalt oder anderen ungeeigneten Inhalten bei diesem Modell nicht berücksichtigt wird.

Das Modell von Yahoo ermöglicht es Entwicklern, mit einem Klassifikator für die NSFW-Erkennung zu experimentieren, und sie können ihr Feedback abgeben, um das gesamte System zu verbessern. Das Modell bietet eine Bewertung für Bilder im Bereich von 0-1, die für NSFW-Inhalte verwendet werden können. Entwickler können diesen Score verwenden, um Bilder unterhalb eines bestimmten geeigneten Schwellenwerts basierend auf einer ROC-Kurve für bestimmte Anwendungsfälle zu filtern oder dieses Signal zu verwenden, um Bilder in Suchergebnissen einzustufen, erklärt der Blogpost.



Lesen:US-Regierung übergibt verbleibende Kontrolle über das Internet an ICANN

Yahoo wird keine Trainingsbilder oder andere Details veröffentlichen, unter Berücksichtigung der Art der Daten. Es hat jedoch das Ausgabemodell als Open Source bereitgestellt, das von Entwicklern verwendet werden kann, um NSFW-Inhalte zu klassifizieren.