APP下载

女性是如何被现实忽视的

2024-02-21纳维卡·梅塔

南风窗 2024年4期
关键词:人工智能剂量研究

将女性排除在外的研究,不仅仅是“性别中立”的—它是“不完整的”,后果可能是致命的。例如,女性在车祸中受伤的可能性比男性高73%,死亡的可能性高17%。其中一个原因是,车辆安全试验中使用的碰撞测试假人,旨在模仿普通男性的身体。直到2022年,“女性”假人才被开发出来。

医护人员使用的个人防护设备,也是针对男性身体进行优化,女性必须使用相同尺寸,即使女性更加嬌小。在2020年对英国医护人员进行的一项调查中,44.7%的女性认为个人防护服不合身,而男性这一比例只有15.3%。在加拿大最近的一项调查中,超过80%的女性受访者报告了个人防护装备的问题。

同样,警察使用的“男女皆宜”防弹衣是为男性设计的,让女性既不舒服,也可能更容易受到攻击,尤其是在腋窝和脖子周围。英国现在有5万名女性担任警察,直到2023年才引入女性专用防弹衣。

医疗方面,女性不再被排除在临床试验之外,但代表性仍然不足,特别是在试验的早期阶段。因此,女性仍然面临更高的药物不良副作用风险,尤其是因为推荐剂量没有针对女性进行优化。对女性服用与男性相同剂量之药物的研究分析表明,在超过90%的例子中,女性经历了更强的副作用和更多的不良反应。该分析源于对服用安眠药物Ambien的女性所经历的严重副作用的观察,包括第二天早上的交通事故率更高。研究人员发现,推荐剂量在女性血液中的浓度和药物消除时间,比男性高得多。美国食品和药物管理局现在建议,女性接受“标准”剂量的一半。

更糟糕的是,当涉及主要影响女性的健康问题时,研究往往根本没有得到资助。在近75%的疾病主要影响一种性别的例子中,这种模式有利于男性:“男性疾病”资金过剩,而“女性疾病”资金不足。

同样,与健康相关的数据主要来自男性,这带来了严重风险,因为基于这些数据训练的人工智能被应用于医疗保健。例如,如果一名男子报告左臂和背部疼痛,一个医疗应用程序将建议他寻求潜在心脏病发作的帮助。同样的应用程序可能会说,女性正在经历抑郁症,因此不需要紧急护理。

人工智能也有可能以其他方式伤害女性。2015年,亚马逊取消了其人工智能招聘工具,因为它表现出对女性的偏见。通过观察过去十年提交的简历(绝大多数来自男性的简历)的模式来“学会”评估申请,计算机模型对男性候选人的评价更高。这并不奇怪,因为女性仅占人工智能研究人员的12%和软件开发人员的6%。其他几家仍在使用人工智能软件进行招聘的公司,并没有监控其偏见。

尽管有大量证据表明,性别平等的进步在推动经济发展方面发挥着重要作用,但只关注增长的宏观方面的分析却忽视了性别。忽视政府支出、税收和货币政策对男性和女性产生的影响不同这一事实,可能导致经济评估缺陷,破坏政策的有效性和预测的准确性。

例如,妇女作为主要照料者的无偿劳动,在宏观经济政策中没被考虑到。做饭、打扫卫生、打水、照顾儿童和老人等工作,具有可观的经济价值,占GDP的10%~60%。由于不分性别的分析,妇女工作过度,工资过低。在增加妇女在劳动力中的比例的同时,需要制定减少和重新分配这种无偿劳动的政策。

当全球一半的人口被归为日后再考虑时,研究不再准确,政策不再有效,人类福利也将减少。在研究、产品设计、技术和政策的每个领域明确考虑女性成为常态之前,这种情况不会改变。

纳维卡·梅塔是国际经济协会的经济学家兼编辑,通过IEA女性参与经济倡议的“扩大女性之声”项目,倡导在经济领域实现更大的性别平等和代表性。本文已获Project Syndicate授权。

猜你喜欢

人工智能剂量研究
·更正·
FMS与YBT相关性的实证研究
辽代千人邑研究述论
不同浓度营养液对生菜管道水培的影响
90Sr-90Y敷贴治疗的EBT3胶片剂量验证方法
视错觉在平面设计中的应用与研究
EMA伺服控制系统研究
2019:人工智能
人工智能与就业
数读人工智能