
本网站不提供下载链接,喜欢看书的朋友请关注公众号:【lennylee的碎碎念】(lennyleede),首页回复:授人以渔,自动获取搜索资源的方法。
内容简介:
* “算法是用代码表达的观点,也可能成为加剧不平等的工具。”
* 揭示AI技术背后根深蒂固的偏见与歧视
* 在这个技术狂飙的时代,来一场从女性主义到人工智能的疯狂之旅吧
* 让我们一起逃出科技的“兔子洞”!
《男性制造》揭示了AI技术如何在深度学习中不断复制和放大旧时偏见,并将这一切深深植入我们的日常生活和未来。作者特蕾西•斯派瑟是澳大利亚知名作家、记者、主持人,听到自己的小儿子说出“妈妈,我想要一个奴隶机器人!”,她敏锐地察觉到,人工智能、大数据看似平等客观,实则如同懵懂的“科学怪人”,笨拙地模仿着人类社会长久以来形成的偏见。通过一系列活生生的案例、数据和轶事,她不断追问,科技是改善了还是加深了社会歧视?当机器被嵌入性别偏见,会造成何种女性困境?虚拟助手和深度伪造的伦理边界在哪里?个人隐私与大数据社交网络的发展如何平衡?资本和精英主义在这其中扮演了什么角色?……本书让深藏在技术光鲜表面之下的危机浮出水面,也使我们能在未来做出积极的改变。
【编辑推荐】:
“妈妈,我想要一个奴隶机器人!”
听到年幼的儿子说出这句话时,特蕾西•斯派瑟呆住了。突然之间,她觉得自己为了消除不平等所做的一切努力都徒劳无功。如果偏见正被深深植入我们的未来,那么费力去改变当下又有何意义呢?
算法和新科技在不断渗入我们的日常。从家庭生活到医疗保健、司法和教育,我们越来越依赖它来做出判断和决策。AI技术操纵着我们的汽车、学校和医院,正在决定谁应该得到工作、住房贷款或呼吸机——而谁又不应该。但它真的如我们想象的那样客观、中立、可靠吗?
《男性制造》将我们的视线引向了一个更迫切、更隐秘的危机:因为用于深度学习的数据库存在偏见,AI正在系统性地复制并放大人类社会的偏见,尤其是对少数群体的歧视。
为什么虚拟家务助手几乎都默认为女声,而专业机器人大多设定为男性?为什么求职软件总会屏蔽特定人群?为什么某些刷脸系统对深色皮肤不太友好?……正如真实的洋流在我们脚下涌动,却始终深不可测,AI也是如此。《男性制造》揭示了种种《黑镜》般的剧情正在现实中上演,但仍有希望。认清这一切,我们才能在这数据海洋最可怕的风暴中生存。
本书封面由AI绘图工具Midjourney生成——这款基于用户文字指令创作图像的人工智能软件,恰是书中探讨的技术矛盾缩影。
作者简介:
特蕾西•斯派瑟(Tracey Spicer),澳大利亚著名作家、记者和电视主播。2018年,特蕾西被《澳大利亚金融评论》评选为社会企业与非营利领域100位最具影响力的女性之一。2019年,她被评为新南威尔士州年度女性,获得悉尼和平奖,并获颁“澳大利亚女性与领导力”全国女性卓越领导力奖。由于在媒体和慈善领域长达30年的耕耘,她被授予澳大利亚勋章。
引言
第1章 创始之“父”
第2章 发明之母
第3章 机器中的幽灵
第4章 一马厩的秘书
第5章 男性制造
第6章 深陷兔子洞
第7章 算法不公
第8章 黑镜
第9章 寂静之声
第10章 奴隶机器人
第11章 家务福祸
第12章 致命冰箱
第13章 胁迫控制
第14章 虚拟强暴 第15章 性爱机器人
第16章 深度伪造
第17章 育儿机器人
第18章 电脑说“不行”
第19章 科学怪人数据集
第20章 公平游戏
第21章 现实检验
第22章 此路不通
第23章 军方情报,军方智能?
第24章 工蜂
第25章 破解编码
第26章 倡导公平
第27章 危及生存
第28章 反乌托邦?
第29章 乌托邦?
尾声:向机器怒吼
词汇表
尾注
致谢
· · · · · · (收起)
原文摘录: