A Google „megoldotta” a gordiuszi „MI elfogultság” csomót
- Biztonságtechnika
- /
- 2020-02-24
A Google eltávolította a nemi alapú címkézést (osztályozást) Cloud Vision API megoldásából, hogy elkerülje az emberek téves osztályozását arcelemző szolgáltatásában.
A most törölt címkék a képek osztályozására szolgáltak az algoritmus tanítása során, de a cég úgy vélte, hogy ezen címkék nem összeegyeztethetők a Google irányelveivel, mivel a transzneműek vizsgálata során 30%-ban helytelen eredményt adott a rendszer, illetve képtelen kezelni a nem-bináris identitású személyek címkézését. Kutatók megállapították, hogy au Amazon, Clarifai, IBM, Face++, Google, Kairos, Microsoft és számos egyéb fejlesztők megoldásai a „hagyományos” nemi „sztereotípiák” alapján osztályozzák a vizsgált személyeket, pl.: a hosszúhajú férfi kutatókat nőnek „látják”.
Forrás: Venturebeat
A most törölt címkék a képek osztályozására szolgáltak az algoritmus tanítása során, de a cég úgy vélte, hogy ezen címkék nem összeegyeztethetők a Google irányelveivel, mivel a transzneműek vizsgálata során 30%-ban helytelen eredményt adott a rendszer, illetve képtelen kezelni a nem-bináris identitású személyek címkézését. Kutatók megállapították, hogy au Amazon, Clarifai, IBM, Face++, Google, Kairos, Microsoft és számos egyéb fejlesztők megoldásai a „hagyományos” nemi „sztereotípiák” alapján osztályozzák a vizsgált személyeket, pl.: a hosszúhajú férfi kutatókat nőnek „látják”.
Forrás: Venturebeat
Cikkek hasonló témában
EU arcfelismerési irányelvek
- 2023-06-13
- /
- Biztonságtechnika
A biztonság új kora
- 2024-04-16
- /
- Biztonságtechnika
Egy-chipes MI „számítógép”
- 2024-03-18
- /
- Biztonságtechnika
ATM kiemelés megelőzése MI alapokon
- 2024-03-05
- /
- Biztonságtechnika