作为生活在北美的黑人男性,有时很难承认我固有的偏见。 这特别困难,因为我在社交媒体和新闻上看到的大多数事情都是关于像我这样的人正在接受偏见治疗的故事-由于肤色而导致的不公平治疗的故事。 此外,很难承认我有偏见,因为我自己也经历过偏见,并且承认我也有偏见被我对一些坏苹果的一些负面经历所笼罩。
我发现这次演讲非常有趣,因为丽贝卡不仅关注种族歧视和性别偏见。
在新奥尔良的碰撞会议上,我有幸听了ThoughtWorks的Rebecca Parsons的演讲“ AI的多样性,编码和偏见” 。 演讲揭示了当今社会存在的一些偏见。

- 我不是作家
- 受神话,传说和民俗启发的9本儿童读物
- what3words:每个赞比亚3假释tutti gli indirizzi del mondo
- 如何创建吸引人的演示文稿
- 咖啡,食品和纸上咖啡之恋–弗雷迪·卡斯蒂略(Freddy Castillo)
人工智能有偏见
我发现这次演讲非常有趣,因为丽贝卡不仅关注种族歧视和性别偏见。 除了涵盖种族和性别偏见之外,丽贝卡还对我们社会中的偏见进行了360度报道,并展示了培育包容性文化以创造公平的技术未来的重要性。 对我来说,这次演讲的重点是:
- 人工智能制造者的思想,意图和偏见都转移给了AI。
- 接受我们的偏见是提高技术公平性的重要一步。
- 开发人员不仅应该为像他们这样的人建造,而且应该为不同背景和方向的人建造并测试。
- AI的动作和决策受开发人员在构建AI时认为重要的因素的影响。
无偏差决议
要进行任何改进或取得成功,首先要认识到问题并制定解决问题的计划和目标是相关的。 除了计划和设定目标外,还需要持续的自觉努力才能达成长期解决方案。
展望未来,我决心做以下三件事来促进公平的技术未来的包容性。 我鼓励您针对自己的特殊情况进行调整和调整以下内容:
1.确认并重申自己的偏见:
对我来说,我相信承认和重申我的偏见是摆脱它们的第一步。 承认我的偏见将使我能够解决它们,并重申它们将不断提醒和检查我。
2.促进包含在用户测试中:
提倡邀请各种人口统计信息的人参加用户测试。 这将使我从事的产品能够更好地适用于人口统计较高的人群,并防止类似情况发生,例如专为医生设计的个人助理所发生的情况,这种情况对男性声音(医生)有效,而对女性声音(医生)则无效。

3.当有人发表不当评论时大声说:
反对不适当的评论是我的内心深处。 我想继续努力,尤其是与妇女有关的问题。 我关心这一点,因为我有三个姐妹,而且我一生中还有其他关心和合作的坚强女性。 可悲的是,几年前,我没有反对不适当的评论。 与一些男人共进午餐时,其中一个发表了这样的评论:“她为什么不明白? 她是一个穿着裙子的漂亮女孩。” 我感到震惊,我的嘴巴难以置信。 尽管感到震惊,但我没有与那个家伙对峙。 在那种情况下,当我听到这样的不适当评论时,我学会了保持沉默。 从那以后,我一直在反对这样的评论,而现在我更加决心继续发表讲话。
我们应该做什么
我有偏见。 你有偏见。 人工智能有偏见。 我们都有偏见。

随着技术的不断进步和几乎可以超越一个人的AI的发展,愿我们集体和个体地承认并检查我们的偏见,在用户研究和开发中纳入不同的人口统计资料,并反对对不喜欢的人发表不当评论。我们。
— — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — — —