為了給予專注於人工智能的女性學者和其他人他們應得的 — 以及遲來的 — 曝光時間,TechCrunch 推出了一系列訪談侧重介绍那些为人工智能革命做出贡献的杰出女性。隨着人工智能全面崛起,我們將在全年發表幾篇此類文章,突出往往被忽視的重要工作。閱讀更多人物簡介請參閱此處。
Kristine Gloria 曾領導阿斯彭學會的Emergent and Intelligent Technologies Initiative — 阿斯彭學會是位於華盛頓特區的智慧領導和政策專業的智庫。Gloria擁有認知科學博士學位和媒體研究碩士學位,她過去的工作包括在麻省理工學院互聯網政策研究倡議、旧金山Startup Policy Lab和加州大學柏克萊中心進行研究。
問答
簡單來說,您是如何開始從事人工智能領域的?什麼吸引您進入這個領域?
坦白說,我絕對不是追求進入人工智能領域開始我的職業生涯的。最初,我對技術和公共政策的交集非常感興趣。當時,我正在攻讀媒體研究碩士學位,探索有關混搭文化和知識產權的想法。我當時是作為新美洲基金會的阿切爾學者在華盛頓特區生活和工作。有一天,我清楚地記得坐在滿屋公共政策制定者和政治家中,他們正在使用那些並不完全符合其實質技術定義的術語。就在這次會議之後,我意識到為了推動公共政策,我需要取得資格。我重返學校,取得了認知科學博士學位,專攻語義技術和線上消費者隱私權。我非常幸運能夠找到一位鼓勵跨學科了解技術是如何設計和建造的導師和顧問,以及開發批判性觀點來看待技術如何影響我們生活的實驗室。作為阿斯彭學會人工智能主管,我有幸與一些領先的人工智能思想家進行構思、參與和合作。我總是被那些花時間深入探討人工智能如何影響我們日常生活的人吸引。
若干年來,我一直領導各種人工智能倡議之一,而最有意義的一個就要開始了。現在,作為一家新非營利組織Young Futures的創始團隊成員和戰略合作夥伴與創新主管,我很高興將這種思維融入到實現我們的使命,使數字世界成為一個更容易成長的地方。特別是當生成人工智能變得司空見慣,新技術相繼推出時,幫助青少年及其支援單位共同遊走在這個廣闊的數字荒野中,既迫在眉睫又至關重要。
您在人工智能領域最自豪的工作是什麽?
我最自豪的兩個倡議是。首先是與凸显人工智能對边缘社区的張力、陷阱和影響有关的工作。2021年發表的“算法偏見的权力与进展”阐明了这一问题的数月持份者参与和研究。在报告中,我们提出了我的一直以来最喜欢的问题之一:“我们(数据和算法运营者)怎么重新设计自己的模型以预测一个不同的未来,一个以最脆弱群体的需求为中心的未来?” Safiya Noble 是这个问题的初始作者,这是我工作中持续考虑的问题。第二个最重要的倡议最近来自我担任Blue Fever数据负责人的一段时间,该公司的使命是在一个无偏见和包容的在线空间改善青少年福祉。具体而言,我领导设计和开发Blue,第一个人工智能情感支持伴侣。在这个过程中,我学到了很多。尤其是,我对虚拟伴侣可以对那些正在挣扎或可能没有建立支持系统的人产生影响有了深刻的新认识。Blue 被设计和建造用来带给用户“大哥哥能量”,帮助他们反思自己的心理和情感需求。
您如何应对男性主导的科技行业,以及间接地说,男性主导的人工智能行业的挑战?
不幸的是,这些挑战是真实的,并且仍然很普遍。我在这个领域的各种同事中都经历过对我的能力和经验的怀疑。但是,对于每一种这样的负面挑战,我都可以指出一个男性同事是我最坚定的支持者的例子。这是一个艰难的环境,我抓住这些例子来帮助管理。我也认为即使在过去的五年中,这个领域发生了很多变化。作为“人工智能”所需的必要技能和专业经验不再严格限于计算机科学领域。
您对那些希望进入人工智能领域的女性有何建议?
进入并跟随你的好奇心。这个领域不断变化,最有趣的(而且可能也是最有成效的)追求是持续对该领域本身持批判乐观态度。
人工智能在发展过程中面临的一些最紧迫问题是什么?
我认为人工智能面临的一些最紧迫问题实际上是自从互联网首次推出以来我们还没有完全处理好的问题。这些问题涉及代理、自治权、隐私、公平、公正等问题。这些问题是我们如何在机器中定位自己的核心所在。是的,人工智能可以使这变得更加复杂 — 但社会政治变化也一样可以。
人工智能用户应该注意哪些问题?
人工智能用户应该注意这些系统如何复杂化或增强自己的代理权和自治权。此外,随着围绕技术,尤其是人工智能可能如何影响我们的健康和福祉的讨论,重要的是要记住有一些试过且真实的工具可以处理更负面的结果。
负责任地构建人工智能的最佳方法是什么?
负责任构建人工智能不仅仅是编码。一个真正负责任的建设要考虑到设计、治理、政策和商业模式。所有这些相互推动,如果我们只努力解决建设的一部分,我们将继续做不够。
投资者如何更好地推动负责任的人工智能?
莫桑比克大学风险公司要求其尽职调查中制定的一个具体任务是人工智能模型卡片。由 Timnit Gebru 和其他人开发,这种创建模型卡片的做法使团队 — 如投资者 — 能够评估系统中使用的人工智能模型的风险和安全问题。此外,与上述相关,投资者应全面评估该系统的能力和能力以负责任地构建。例如,如果您在建设中拥有信任与安全功能或发布了模型卡片,但您的收入模式却利用脆弱人群数据,则与您作为投资者意图不一致。我认为您可以负责任地构建并仍然盈利。最后,我希望看到更多的投资者之间的合作融资机会。在健康和心理健康领域,解决方案将是多样且广泛的,因为没有人是相同的,没有一个解决方案能够解决所有问题。对于对解决问题感兴趣的投资者之间的集体行动将是一个受欢迎的补充。