Yapay zeka sistemlerinin ırkçılık ve ayrımcılık gibi sorunlara yol açabildiğini belirten İstanbul Üniversitesi-Cerrahpaşa Cerrahpaşa Tıp Fakültesi Temel Tıp Bilimleri Bölümü Öğretim Üyesi Prof. Dr. Murat Kirişci, "İnsan düzelmedikçe yapay zekadan daha iyi sonuçlar beklemek imkansızdır" dedi.
Yapay zeka sistemleri, verilerden öğrenir ve bu verilerde bulunan önyargıları yansıtabilir. 2016 yılında Microsoft tarafından geliştirilen ve Twitter'da etkileşim halinde olan yapay zeka hesabı "Tay", gerçek kullanıcıların tweetlerinden etkilenerek ırkçı ve islamofobik tweetler attı.
Kirişci, yapay zekanın ayrımcılık yaptığı örnekleri sayarak, bu sistemlerin işyerlerinde, sosyal medya platformlarında, polis uygulamalarında ve hatta konut satışı-kiralamasında dahi ayrımcılık yaratabileceğini vurguladı.
Kirişci, insanların zihinlerinde algoritmaların tarafsız olduğu algısının yanlış olduğunu ve yapay zekanın insan önyargılarını yansıttığını belirtti.