分享人工智能相关新闻和分析的板块。
人工智能正在监视全世界
Author
김 경진
Date
2026-03-01 00:41
Views
64
第二章 人工智能正在监视全世界
"老大哥在看着你" ——乔治·奥威尔
1. 全天候注视你的AI之眼
此刻,就在你读着这些文字的时候,成千上万双看不见的眼睛正盯着你。智能手机里的摄像头、街头的闭路电视、地铁站的人脸识别系统,甚至你在社交媒体上按过的那个"赞"——所有这些都变成了数据,正在某个地方被分析、被储存。
人工智能本是为了让人类生活更富足、更便利而诞生的。它帮助医生诊断疾病,疏解交通拥堵,打破语言的壁垒——简直像魔法一样的技术。然而现实如何?这项聪明的技术正在被用来监视人、控制人,甚至变成威胁生命的武器。技术本身没有善恶之分。问题在于握住技术的那只手想要做什么。
以色列的"薰衣草"系统用数字计算巴勒斯坦人的生死;中国的"天网"追踪14亿人的一举一动;美国的Palantir实时分析全球情报——面对这一切,我们必须清醒过来。人工智能已经不再是我们手中便利的工具,而正在变成束缚我们的枷锁。
这些正在全球蔓延的AI监控系统有一个令人不寒而栗的共同点。第一,它们从不征求你的同意。不管你愿不愿意,你的个人信息被大规模收集。第二,没有人知道这些算法究竟如何运作。它们就像一个不透明的黑色魔盒。第三,它们并不完美,却在做出重要决定。10%的误差率——这意味着你也可能落入那10%之中。第四,它们有针对性地瞄准特定群体。仅仅因为你的肤色不同,信仰不同,或者政治倾向不同。
这不只是技术问题。它动摇着人的尊严、隐私、言论自由、宗教自由——民主社会守护至今的一切价值。就连韩国国家人权委员会也在2024年5月建议使用"人工智能人权影响评估工具",这说明韩国同样无法置身事外。
就在此时此刻,人工智能究竟会成为解放人类的工具,还是压迫人类的枷锁,正在被决定。而做出这个决定的人,不是政府,不是企业——是你,是我,是我们每一个人。
2. 以色列的"薰衣草"系统
2024年4月,一个令世界震惊的揭露浮出水面。以色列-巴勒斯坦独立媒体"+972 Magazine"和希伯来语媒体"Local Call"公开了"薰衣草"(Lavender)AI系统的真面目。其内容将我们对AI的所有噩梦变成了现实。
以色列军方情报部队开发的这套AI,如同上帝之眼俯瞰加沙地带,将230万人的命运用1分到100分的数字来标记。它声称在计算某人成为哈马斯武装人员的概率。你跟谁通话、下载了什么应用、经常去哪些地方——所有这些都成了算法的"食粮"。
薰衣草系统首先学习了已知哈马斯成员的数据:他们使用的手机品牌、常下载的应用、通话模式、移动路线。然后逐一搜寻显示出相似模式的人,给他们打分。就像流感病毒沿着传播链扩散一样,怀疑的网越撒越广。
生命被算法折算成数字
以色列军方对薰衣草90%的准确率颇为满意。乍一听,90%似乎相当高。但请停下来想一想这意味着什么:10%可能是错的。如果薰衣草将37,000人列为打击目标,其中3,700人可能是无辜的。3,700条生命,能被称为"误差范围"吗?
更可怕的是,战争爆发后,人工审核程序也变得松懈了。战前的内部规定要求"至少两条由人类直接获取的情报来支持薰衣草AI的判断"。但加沙战争一开始,这个标准就降到了"一条",实战中甚至连这一条也常常被无视。
一名情报分析员的证词令人毛骨悚然:"我们只是给薰衣草AI的决定盖了个确认章。批准一次打击只用了20秒。"生死攸关的重大决定,实质上是人工智能在做。人类的判断不过是走个过场。
一名军官冷漠的话概括了一切:"节省金钱、时间和人力,比平民的生命重要得多。"
"爸爸在哪里?"——把家人当人质的系统
与薰衣草配合运行的另一套系统,光是名字就让人不寒而栗。"爸爸在哪里?"(Where's Daddy?)——这套追踪系统一旦检测到目标人物回到家中,就会通知以色列军方。
为什么叫"爸爸在哪里"?原因既简单又残忍:瞄准父亲回家的那一刻发动攻击。这套系统学习目标人物的日常作息、锁定住宅位置、实时监控他何时进门。
一名以色列军官的证词触目惊心:"我们不只是在哈马斯成员进入军事建筑或执行军事活动时才攻击。在他们家里攻击要容易得多,这个系统就是为了确认哈马斯成员是否在家而设计的。"
结果不难预料。为了消灭一个目标,他的整个家庭跟着陪葬。在家中遭到轰炸,妻子和孩子不可避免地一同牺牲。这是对国际法明确规定的平民保护原则的公然践踏。
以"附带损伤"之名签发的屠杀许可证
六名以色列军方情报人员的证词更加令人震惊。战争最初几周,以色列军方认定,在暗杀薰衣草标记的每一名武装人员时,15到20名平民的牺牲属于"可接受范围"。攻击哈马斯指挥官级别人物时,100名以上平民的死亡也被允许。
美国国务院的一位国际法专家在接受《卫报》采访时表示,"1比15的比例,尤其针对低级别战斗人员,闻所未闻。"这意味着以色列设定的平民伤亡容许标准,在国际上史无前例地宽泛。
以色列国防军内部证人的话为整个局面做了总结:"不想在低级别武装人员身上投入过多人力和时间。即使要承受附带损伤、平民伤亡,以及误伤无辜者的风险,使用AI也是值得的。"
否定人的尊严的机器裁决
薰衣草系统最根本的问题在于,它把人的生命当作单纯的数据来处理。一个人的生活与情感、与家人的羁绊、个人的历史——全部被忽略,生死仅凭人工智能算法计算出的概率来决定。这是对人的尊严的根本否定,彻底颠覆了"技术应为人而存在"的原则。
透明性更是无从谈起。算法按照什么标准将某人归类为危险人物,无人确切知晓;被错误归类的人也没有任何途径证明自己的清白。在没有正当程序和法律保护的情况下,人的生命被夺走了。
加沙地带的人脸识别地狱
与薰衣草并行,以色列在加沙地带部署的人脸识别技术是又一场噩梦。2023年加沙战争爆发后,以排查哈马斯相关人员、辨识以色列人质为名引入的这套系统,实际上成了对巴勒斯坦居民进行无差别监控的工具。
以色列情报部队8200主导的这项行动采用了民间企业Corsight的人脸识别技术。通过检查站、无人机和军用摄像头运行,Corsight的员工甚至亲自到现场提供技术支持。
部署在加沙的以色列士兵配备了搭载该技术的摄像头,每当难民通过检查站时,随机拍摄并扫描面部,再与现有数据库比对以确定身份。
Corsight曾自夸其人脸识别技术"即便面部暴露不到50%,或在黑暗、低画质环境中也能准确识别"。但现实并非如此。巴勒斯坦诗人Mosab Abu Toha就是活生生的证人。他带着三岁的孩子踏上逃难之路,在以色列军方检查站被人脸识别摄像头扫描后,因AI的错误被误认为通缉名单上的人物,遭到两天的拘禁、殴打和酷刑。
国际特赦组织将以色列的这些行为批评为"自动化的种族隔离"。这成为AI技术被滥用于战争和监控时可能造成严重人权侵害的典型案例。
3. 仅凭步态就能找到你的中国
在中国的"天网"系统面前,无处可藏。这个名字取自老子《道德经》——"天网恢恢,疏而不漏",意思是上天的网看似稀疏,却不会放过任何恶人。但这里所说的"恶人",由谁来定义?答案是中国共产党。
1秒扫描14亿人
中国在全国安装了超过10亿台闭路电视。想象一下,10亿双眼睛全天候盯着你。中国政府声称,通过这套系统能在1秒钟内排查全部人口。1秒钟辨别14亿张面孔——技术上令人惊叹,从人权角度看却令人恐惧。
中国的人脸识别技术处于世界顶尖水平。在2018年美国国家标准与技术研究院(NIST)主办的人脸识别供应商测试中,前四名全部由中国企业开发的算法包揽。它们在这个领域领先世界的原因很简单:实验对象有14亿人。
99.8%的准确率
天网的人脸识别准确率高达99.8%。运行两年间,仅通过该系统抓获的犯罪嫌疑人就超过了2,000名。但值得注意的是,它不仅能识别人脸,还能通过步态识别个人身份。即便你戴着帽子或口罩也没用,仅凭步态就能找到你。
实际案例展示了这套系统的威力。17年前杀害男友的女性,被高速公路收费站的人脸识别系统找到了。在5万多人的演唱会现场,一名经济犯罪在逃人员被摄像头的面部识别技术发现并逮捕。2000年浙江省一起碎尸案的凶手在16年后被追踪到。
最戏剧性的案例发生在安徽省的一座寺庙。系统发现住持的面容与一名暴力犯罪嫌疑人吻合。改名换姓、以僧人身份生活了十多年的逃犯最终落网。
这些案例让人看到中国监控技术的精密和广泛。但与此同时,它们也揭示了这种技术对普通公民隐私的严重侵犯。
"锐眼"编织的监控网
2016年,经中共中央委员会批准,中国启动了"锐眼"(Sharp Eyes)工程——一项雄心勃勃的计划,旨在建成覆盖全国、全天候监控和管控的闭路电视监控网络。
锐眼工程不止是多装几个摄像头那么简单。它要把安装在道路和公共场所的闭路电视与居民的电视、手机、智能门锁等连接起来,构建一个可以实时掌握情况的网络。说白了,就是打造一个全民互相监视的社会。
想象一下:你的电视、手机,甚至家门,都变成了政府的监控工具。中国全境被一张巨大的监控网笼罩,意味的就是这样的世界。
日常监控
人脸识别技术如今已渗透到中国日常生活的方方面面。违反交通规则,违章者的面部照片会被拍下来,显示在公共电子屏上。闯红灯过马路会被自动抓拍。乘地铁刷卡,不需要手机,刷掌纹或刷脸就行。
甚至在北京天坛公园,为了防止厕纸被偷,引入了人脸识别机器。只有经过面部识别才能领取定量厕纸。就连上厕所,你的脸也会被记录。
2019年12月1日起,新办手机号码必须进行人脸扫描。政府以"保护网络空间公民权益"为名,实际目的是构建由政府主导的生物信息数据库。采集到的面部信息与全国7亿多台闭路电视联动的监控网络整合,实现了实时身份识别和移动轨迹追踪。
新冠疫情成了监控技术扩散的绝佳契机。学校、政府机关、住宅小区等场所,在测温的同时通过人脸识别进行出入管控已成常态。即便戴着口罩也能识别的技术已经被开发并投入使用。
新疆维吾尔
中国监控系统运行得最极端的地方是新疆维吾尔自治区。那里实实在在成了监控技术的实验场。清真寺、维吾尔社区、机场、火车站、公交站——新疆全境670万个点位都安装了闭路电视和面部扫描系统。
据人权观察报告,新疆地区十分之一的人口——250万人——每天都处于中国情报机关的监视之下。12岁到65岁居民的DNA、指纹、虹膜扫描、血型等生物信息被强制采集。这无异于把所有人都当作潜在罪犯来对待。
用于监控维吾尔族的"一体化联合作战平台"(IJOP)本身就是种族歧视的工具。该平台在新疆收集包括DNA在内的生物数据来追踪维吾尔人。这已超越了监控的范畴,意味着对特定少数民族整体的系统性压迫和管控。
人权观察获取的阿克苏地区2,000名维吾尔族被拘留者名单令人触目惊心。拘留理由包括:未经许可学习古兰经、蓄长须、使用VPN、频繁关闭手机、进行宗教活动等。这些日常行为竟成了将人关进拘留营的依据。
据报道,华为开发了专门针对维吾尔族的监控摄像系统,引发巨大争议。系统一旦检测到对象为维吾尔族少数民族,就会自动触发"维吾尔警报"并通知警方。阿里巴巴也被曝拥有可识别维吾尔族的人脸识别程序。
针对宗教信徒的"敲门行动"
中国强迫宗教信徒服从以无神论和马克思主义为根基的共产主义意识形态。共产党将宗教团体视为可能挑战党的权威的潜在威胁力量。
1860年洪秀全以基督教思想发动太平天国运动、差点颠覆清朝的记忆至今鲜活。习近平执政后提出"宗教中国化"政策,加强管控,要求宗教组织服从党和政府的要求。
根据中国刑法第300条,参与被禁止的宗教团体的活动被视为犯罪,可判处3至7年有期徒刑。政府向举报被禁宗教团体信徒的人提供10万元人民币的悬赏,建立了全民举报体制。
2017年初开始,一场名为"敲门行动"的大规模监控活动在全国展开。找个合适的借口派警察上门调查宗教信徒、拍照建档——这是全国追踪宗教信徒的监控系统的一部分。
收集到的数据存储在国家安全保卫部门的专用电脑中,调查人员四处搜寻传播宗教者的证据。一旦掌握证据,就启动进一步调查;调查结束后,通过"锐眼"和"天网"工程对目标进行持续不断的监视。
社会信用系统:被打分的人的价值
中国政府构建的社会信用系统以"守信激励、失信惩戒"的机制运行。它观察并给中国每一个人的行为打分。就像学校给学生的行为评分一样,政府逐一审视每个国民的行为并给出分数。
这并非中央政府通过法律系统性构建的体系,而是由地方政府、铁路部门、金融机构等各自搭建的系统。但由于众多地方政府和机构参与其中,实际上这套制度在全国范围内整齐划一地执行着。
信用分高的人住酒店不用交押金,签证审批也比别人快。相反,信用分低的人在住宿、乘火车、旅行自由等方面受到各种限制和制裁。
社会信用系统通过多种手段观察人们的行为。闭路电视24小时监控人们的举动,人脸识别技术可以确认谁在哪里做了什么。上网记录、购物记录、贷款还款记录、交通违章记录等日常生活的全部信息都被收集。
要拿高分,就得按时缴税、遵守交通规则、按时还款。做义工或孝顺父母也能加分。反过来,闯红灯、欠债不还、散布虚假信息就会被扣分。批评或反对政府的行为会导致分数大幅下降。
向全球扩散
最令人担忧的是,中国的监控模式正在向全世界蔓延。中国正在向其他国家出口监控技术,许多发展中国家正在引进这些技术。非洲、南美、亚洲多国已引入中国的监控技术,用于监视本国公民。
华为、海康威视、大华等中国企业开发的监控技术正在全球多国使用。这意味着中国式监控模式正在向全球扩散。
中国的天网系统是技术进步并不保障人的自由与幸福的典型案例。它以提升社会安全和秩序为目标而建,却是一个可能严重侵犯个人自由和人权的危险系统。技术的进步本应让人的生活更美好,却反过来被用作控制和压迫人的工具。
4. Palantir
你听说过Palantir Technologies这个名字吗?公司名称取自托尔金小说《指环王》中的魔法水晶球"Palantír"。小说里,这颗水晶球拥有监视和观察远方的能力。现实中的Palantir也如出一辙。
这家公司由PayPal联合创始人彼得·蒂尔于2003年创立,运营着全球最强大的数据分析与监控系统。它的客户包括美国中央情报局(CIA)、联邦调查局(FBI)、国家安全局(NSA)、国防部等美国核心情报机构。近年来,民间企业也开始使用Palantir的服务。
吞噬世间一切数据的数字克拉肯
Palantir的核心技术是整合和分析来自不同来源的海量数据。利用人工智能和机器学习技术,从数十亿个数据点中发现隐藏的模式和关联。卫星图像、手机通话记录、金融交易明细、社交媒体帖文、政府数据库——各种各样的信息都能被同时分析。
更可怕的是,这一切都是实时运行的。新信息一到达就开始分析,与现有数据比对以发现有意义的模式或危险信号。就好像一个巨大的数字大脑全天候监视着这个世界。
Gotham与Foundry:为政府和企业打造的全能之眼
Palantir根据主要客户群体运营两大平台:面向政府机构的"Gotham"和面向民间企业的"Foundry"。
Gotham是Palantir的政府平台,用于军事行动、反恐、情报收集和犯罪侦查等。Gotham被称为"数字棋盘",因为它将复杂局势可视化,如同棋盘一般,辅助战略决策。
Gotham的主要功能包括:首先是"信号情报"(Signal Intelligence)分析功能,可以实时分析全球收集的电子通信信息——手机通话、互联网通信、卫星通信等所有类型的电子信号。
其次是"人力情报"(Human Intelligence)整合功能。输入秘密线人的报告、访谈记录、现场观察报告后,系统会自动将其与其他信息关联分析。比如,线人报告的内容是否与卫星图像或通信截获内容吻合,可以即时核实。
第三是"地理空间情报"(Geospatial Intelligence)分析。实时分析卫星图像、无人机画面、地图数据,检测地面变化。新建筑物的出现、军队调动、武器部署等变化都能被自动发现。
第四是"开源情报"(Open Source Intelligence)收集与分析。自动收集并分析Facebook、Twitter、Instagram等社交媒体的帖文,可以实时掌握特定地区的政治氛围或社会不稳定程度。
Foundry是民间平台,数据分析功能与Gotham类似,但更侧重于企业运营而非军事或情报收集。它基于仿真引擎,可以整合管理企业的财务、人事、物流、库存等数据。
乌克兰战争:Palantir的实战舞台
2022年2月俄罗斯入侵乌克兰后,Palantir在战争中扮演了重要角色。战争爆发三个月后的2022年6月,乌克兰总统泽连斯基会见了Palantir CEO亚历克斯·卡普,请求军事支援。卡普是泽连斯基在战争期间会见的第一位西方企业CEO——这足以说明Palantir的重要性。
Palantir决定免费向乌克兰提供其软件。这是一个战略性判断,因为这是在真实战争环境中测试和改进技术的机会。从企业角度看,俄乌战争提供了只有真实战争才能获得的宝贵数据和经验。
Palantir为乌克兰提供的核心系统名为"Metaconstellation"综合分析平台。其核心功能是基于AI实时分析卫星图像、开源数据、无人机画面和情报报告,为乌克兰指挥官提供掌握战场态势和决定打击目标所需的情报。
Palantir CEO亚历克斯·卡普在接受路透社采访时说,"乌克兰军队的大部分攻击都由Palantir AI系统负责。"《经济学人》评价说,"在大卫(乌克兰)与歌利亚(俄罗斯)的战斗中,扮演大卫'弹弓'角色的正是Palantir的AI系统。"
民间监控的黑暗阴影
在战场上搜寻和追踪敌军的技术,只需稍加修改,就能变成政府监视和控制公民的工具。Palantir已多次陷入涉及民间监控的争议。
摩根大通最初引入Palantir是为了监控员工的违规行为。但当系统被用于窥探公司高管的私生活时引发了争议,合同最终被取消。
Palantir的系统有能力找到用户想要的任何信息。电子邮件、电话通话、金融交易、位置信息、社交媒体活动——个人的所有数字痕迹都能被追踪和分析。
Palantir与美国移民和海关执法局(ICE)签约,协助追踪和逮捕非法移民。这一案例表明,该技术可能被用来打压社会弱势群体。200多名Palantir员工签署了对ICE合同表示担忧的请愿书,13名前员工公开批评了公司的方向。
数字监控同盟的扩散
Palantir与包括美国在内的全球约40个国家的政府机构签有合同。这些国家的政府以反恐、犯罪侦查、边境管理、社会安全等名义引入Palantir的技术。但这些系统一旦建成,其使用目的和范围极有可能扩大。
在民主社会中,公民曾经能够监督和制衡政府。通过新闻自由、集会自由、言论自由,公民可以批评政府的错误、要求改进。随着Palantir这样强大的监控技术落入政府手中,这种平衡正在被打破。政府能够实时监控和分析每一个公民的行为,而公民却越来越难以知道政府在做什么。监视者与被监视者的关系正在发生逆转。
在国际层面,Palantir的扩散同样令人担忧。美国向盟国提供Palantir的技术,事实上正在形成一个"数字监控同盟"。这意味着监控技术正在全球范围内走向标准化。
技术与权力的危险结合
Palantir展示了技术与权力的结合可以多么危险。公司创始人彼得·蒂尔与美国共和党关系密切,曾支持唐纳德·特朗普。Palantir的技术被用于服务特定政治势力利益的可能性无法完全排除。
Palantir的市值已经超越了传统国防承包商。截至2024年12月,Palantir市值达到1,740亿美元,超过了洛克希德·马丁(1,216亿美元)、诺斯罗普·格鲁曼(690亿美元)等国防企业。基于软件的监控技术正在被赋予比基于硬件的传统国防企业更大的价值。
Palantir的案例发出了一个重要警告。技术不是中立的。它由谁来使用、出于什么目的、以什么方式使用——决定了它究竟会解放人类还是压迫人类。我们的选择将决定后代生活的世界是什么样子。
5. 美国NSA
2013年,爱德华·斯诺登泄露的NSA机密文件震惊了世界。美国国家安全局(NSA)窃听了35国领导人手机的事实被曝光。德国总理默克尔的手机从2002年到2013年被监听了大约十年。德国等欧洲盟国对美国表达了不信任,外交冲突加剧。
据斯诺登披露,美国在包括韩国和日本在内的38个友邦的驻美大使馆安装窃听器,用专用天线探测电波——进行了全方位的间谍活动。连布鲁塞尔的欧盟总部也成了监视对象,自诩"自由的守护者"却像对待敌国一样监控盟友。
通过名为"棱镜"(PRISM)的系统,美国直接接入谷歌、Facebook、苹果、微软等全球IT巨头的服务器,实时收集个人邮件、照片、通话记录等所有信息。甚至入侵了中国清华大学和香港通信企业,不分敌友地发动了无差别信息战。
德国司法部长愤怒地说"令人联想到冷战时期敌国的行径"——对盟国的背信式监控行为严重到了这种程度。CIA甚至利用德国法兰克福和汉堡的领事馆作为黑客基地,在盟国领土上公然进行网络间谍活动。
斯诺登事件后更加精密的监控
斯诺登揭露至今已过去十余年。其间,人工智能技术取得了飞跃式发展。在奥巴马总统道歉之后,美国情报机构真的停止了对盟国领导人手机和重要通信网络的窃听和监听吗?笔者认为,这些活动仍在继续。
如果说过去NSA的监控侧重于大规模收集通信数据,那么现在AI已进化到实时分析和预测这些数据的阶段。AI算法能在几分钟内分析出人类分析师需要数年才能处理的数据量。从电子邮件、社交媒体帖文、通话记录等海量信息中,瞬间掌握特定个人的政治倾向、批评性言论和社交网络,并绘制出关联图谱。
预测性监控和行为分析也已成为可能。通过学习过去的数据,可以预测特定个人或群体的未来行为。系统可以分类那些参加政治集会或在网上反复就特定话题发表意见的个人,并对其所有在线活动和通信进行集中监控。
人脸识别和行为识别系统也在发展。遍布全球的闭路电视、无人机、卫星图像等与AI的"眼睛"结合,构建了强大的实时追踪系统。AI不仅能识别特定人物的面孔,即便戴着口罩或只露出局部,也已发展到能确定个人身份的水平。通过分析步态、行为模式等生物特征信息,即便在人群中也能识别特定个人并追踪其行踪。
"五眼联盟":绕过国内法限制的监控同盟
由美国、英国、加拿大、澳大利亚、新西兰组成的"五眼联盟"(Five Eyes)情报同盟,正在利用尖端技术构建全球监控网络。各国情报机构共享和分析所收集的数据,运营着全方位的监视体系。
这个同盟最巧妙之处在于绕过各国的法律限制。美国政府直接监控本国公民在法律上受到约束,但从英国或其他盟国那里获取美国人的信息则相对自由。这实际上使得各国的个人信息保护法和监控限制规定形同虚设。
情报机构正通过Facebook、Twitter、Instagram等社交媒体平台大量收集个人信息。这些平台掌握着用户日常活动、人际关系、政治倾向、消费模式等海量信息。AI技术能够分析这些信息,预测个人的性格、政治倾向和行为模式。有研究表明,仅凭对特定帖文点"赞"的模式,就能以90%以上的准确率预测一个人的政治倾向。
金融监控与位置追踪的天罗地网
金融机构正在监控金融交易数据,从中了解个人的经济活动、消费模式和人际关系。当某人在特定地区取钱或在特定商店消费时,就能追踪此人的位置和活动。AI技术可能被滥用为监控所有公民经济活动的工具。
通过智能手机、GPS设备、信用卡等收集的位置信息,可以详细掌握个人的移动模式。AI技术能够分析位置数据,掌握个人的日常活动规律、会见的人物、常去的地点等。这些信息可用于预测和监视特定个人的行为。偏离日常模式的移动会被归类为"可疑行为",从而被列为额外监控对象。
蚕食民主的数字极权主义
基于AI的监控系统正在对民主和人权构成严重威胁。个人隐私、言论自由、集会自由、政治参与等民主的基本权利正受到监控和管制的制约。对政治反对者和社会活动人士的监控日趋强化,健康的政治辩论和社会批评可能因此受到压制。这将损害民主的基本原则——制衡。
我们正站在一个重大的十字路口。技术越发展,监控的精密度和覆盖范围就越大。现在是我们做出选择的时候了。是以便利和安全之名接受全方位监控而生活,还是宁可忍受不便也要守护自由和人的尊严。
6. 数字独裁的威胁
未经同意的大数据掠夺
你早上起床查看手机、坐地铁上班、在咖啡馆喝咖啡、网购——每一个瞬间都变成了数据。而这些数据在未经你同意的情况下被收集、分析,并成为判断的依据。
全球运行的AI监控系统最根本的问题是:它们从不征求人们的同意。以色列的薰衣草系统收集并分析了加沙地带230万居民中绝大多数人的信息。在中国,不管国民愿不愿意,面部信息都被强制采集。
个人信息自决权是民主社会的基本权利。每个人都有权知道自己的信息被谁、在何时、以何种目的使用,并有权决定是否同意。然而AI监控系统完全无视这些权利。
更严重的是,所收集信息的范围超乎想象。不只是面部照片或姓名,位置信息、通话记录、网络搜索记录、社交媒体活动,甚至步态和行为模式——一切都是采集对象。你的一举一动全部被记录和分析。
黑箱算法的专制
这些系统究竟如何运作,普通人无从得知。薰衣草的算法如何训练和学习、中国的人脸识别系统按什么标准识别人——都没有被明确公开。事关人命的重要决策系统,其运作过程却被层层保密。
算法的透明性是民主社会极为重要的原则。对于影响个人权利的自动化决策,人们有权了解其依据和过程。但当前的AI监控系统都处于"黑箱"状态运行,无人能确认其内部运作原理。
这极其危险。即便算法存在偏见或错误,也无法确认和修正。做出了错误判断也不知道原因,因此也无法纠正。
这些系统远非完美。薰衣草系统10%的误差率意味着无辜平民被错误识别的风险。即使中国的人脸识别系统号称99.8%的准确率,1,000人中仍有2人可能被误判。在14亿人口中应用,数千万人可能遭受误识的伤害。
24小时监控的电子牢笼
想象一下现代AI监控系统所制造的世界。从出门那一刻到回家,除了睡觉,每一个瞬间都被记录和分析。去了哪里、见了谁、买了什么、甚至做了什么表情——全部变成数据。
中国的监控系统与分析国民社会行为、甚至评估对政府忠诚度的社会信用制度相连。这严重限制了人们自由行动和思考的权利。
这种全面监控制造出"寒蝉效应"(chilling effect)。一旦知道自己时刻被监视,人们就会克制自由表达观点或参与政治活动。其结果是扼杀民主的根基——言论自由和政治参与。
看看维吾尔族的遭遇。未经许可学古兰经、蓄长须、使用VPN就被拘押。宗教自由、言论自由、隐私自由全部遭到侵犯。在日常行为都可能被视为犯罪的社会里,没有人是安全的。
机器做出的生死裁决
关于薰衣草系统,一名以色列情报人员的证词令人胆寒:"作为人类,除了盖确认章之外,我什么都没做。"在事关生命的最重要决策中,人类的判断实质上被架空了。
将关乎人命的决定交给机器,极其危险。无论AI多么先进,都无法完全理解复杂局势的来龙去脉或做出伦理判断。在战争或治安情况下,意外变量层出不穷,机械式判断可能带来致命后果。
自动化决策使得责任归属变得模糊不清。当错误决定导致无辜者受害时,究竟该由谁负责——开发者?运营者?还是下达命令的上级?难以厘清。
想想巴勒斯坦诗人Mosab Abu Toha的遭遇。带着三岁孩子逃难的他,因人脸识别AI的错误被误判为通缉犯,遭受两天拘禁和酷刑。机器的一个失误,给一个人的人生留下了无法抹去的伤痕。
瞄准弱者的数字猎犬
AI监控系统的另一个问题是对特定群体的歧视性监控。中国的监控系统被用作打压维吾尔族、哈萨克族等少数民族的工具。这违反了人人应受平等对待的基本人权原则。
AI系统会如实反映训练数据中的偏见。如果训练数据中包含对特定种族或宗教的偏见,AI就会学习并再生产这些偏见。其结果是将社会中既有的歧视以技术手段固化并放大。
少数民族和宗教少数群体本已处于社会弱势地位,AI监控系统对他们进行更具歧视性的监视和管控,使其人权状况进一步恶化。
华为的"维吾尔警报"系统和阿里巴巴的维吾尔族识别程序赤裸裸地展示了技术如何沦为种族歧视的工具。仅因是特定民族就自动触发警报的世界——这是我们想要的未来吗?
践踏国际法的数字无法地带
媒体强烈批评以色列基于AI的攻击是"公然无视国际法的反人道行为"。国际法保障每个人的生命权、隐私权、言论自由和宗教自由。国际人道法还规定,即便在战争中也必须区分平民和军事目标,必须避免过度的平民伤亡。
然而目前运行的AI监控系统正在正面违反这些国际法原则。"爸爸在哪里"系统蓄意轰炸家人团聚的住宅;中国对整个维吾尔族实施监控和压迫;美国对盟国通信进行无差别监听——这些都是违反国际法的行为。
更严重的是,这些违法行为正在以"技术发展"之名被合理化。每当新技术出现,就仿佛可以无视既有的法律和伦理标准。
对人的尊严的抹杀
AI监控系统的根本问题在于将人还原为数字和数据。薰衣草系统用1到100分的分数来评判一个人。中国的社会信用系统同样将个人的一切行为量化为分数。
人生而拥有平等的尊严。这是不可被任何标准评判或计算的绝对价值。AI监控系统否定了人的这种尊严,仅从效率和利益的角度看待人。
更可怕的是,这种评分成了决定生死的标准。在薰衣草系统中得高分就意味着死亡,在中国社会信用系统中得低分就被社会隔离。机器打的分数左右人的命运——这就是我们身处的时代。
为民主敲响的丧钟
AI监控系统的扩散正在从根本上威胁民主的核心价值。言论自由、集会自由、宗教自由、隐私权——民主社会赖以为基的一切权利都面临危险。
# 搜索关键词
中文搜索词:
AI监控系统, 人工智能监控, 以色列薰衣草AI, Lavender AI系统, 加沙人脸识别, 中国天网系统, 社会信用系统, 新疆维吾尔监控, 锐眼工程, Palantir数据分析, 棱镜计划PRISM, 五眼联盟监控, 斯诺登NSA, 数字极权主义, AI人权侵害, 算法歧视, 自动化战争伦理, 大数据隐私, 人脸识别技术滥用, AI军事应用
英文搜索词:
AI surveillance system, Lavender AI Israel, Gaza facial recognition, China Skynet CCTV, social credit system China, Xinjiang Uyghur surveillance, Sharp Eyes project, Palantir Gotham Foundry, PRISM NSA Snowden, Five Eyes intelligence, digital authoritarianism, algorithmic discrimination, autonomous weapons ethics, AI human rights, mass surveillance technology, predictive policing AI, biometric data collection, Corsight facial recognition, Palantir Ukraine war, AI military targeting
"老大哥在看着你" ——乔治·奥威尔
1. 全天候注视你的AI之眼
此刻,就在你读着这些文字的时候,成千上万双看不见的眼睛正盯着你。智能手机里的摄像头、街头的闭路电视、地铁站的人脸识别系统,甚至你在社交媒体上按过的那个"赞"——所有这些都变成了数据,正在某个地方被分析、被储存。
人工智能本是为了让人类生活更富足、更便利而诞生的。它帮助医生诊断疾病,疏解交通拥堵,打破语言的壁垒——简直像魔法一样的技术。然而现实如何?这项聪明的技术正在被用来监视人、控制人,甚至变成威胁生命的武器。技术本身没有善恶之分。问题在于握住技术的那只手想要做什么。
以色列的"薰衣草"系统用数字计算巴勒斯坦人的生死;中国的"天网"追踪14亿人的一举一动;美国的Palantir实时分析全球情报——面对这一切,我们必须清醒过来。人工智能已经不再是我们手中便利的工具,而正在变成束缚我们的枷锁。
这些正在全球蔓延的AI监控系统有一个令人不寒而栗的共同点。第一,它们从不征求你的同意。不管你愿不愿意,你的个人信息被大规模收集。第二,没有人知道这些算法究竟如何运作。它们就像一个不透明的黑色魔盒。第三,它们并不完美,却在做出重要决定。10%的误差率——这意味着你也可能落入那10%之中。第四,它们有针对性地瞄准特定群体。仅仅因为你的肤色不同,信仰不同,或者政治倾向不同。
这不只是技术问题。它动摇着人的尊严、隐私、言论自由、宗教自由——民主社会守护至今的一切价值。就连韩国国家人权委员会也在2024年5月建议使用"人工智能人权影响评估工具",这说明韩国同样无法置身事外。
就在此时此刻,人工智能究竟会成为解放人类的工具,还是压迫人类的枷锁,正在被决定。而做出这个决定的人,不是政府,不是企业——是你,是我,是我们每一个人。
2. 以色列的"薰衣草"系统
2024年4月,一个令世界震惊的揭露浮出水面。以色列-巴勒斯坦独立媒体"+972 Magazine"和希伯来语媒体"Local Call"公开了"薰衣草"(Lavender)AI系统的真面目。其内容将我们对AI的所有噩梦变成了现实。
以色列军方情报部队开发的这套AI,如同上帝之眼俯瞰加沙地带,将230万人的命运用1分到100分的数字来标记。它声称在计算某人成为哈马斯武装人员的概率。你跟谁通话、下载了什么应用、经常去哪些地方——所有这些都成了算法的"食粮"。
薰衣草系统首先学习了已知哈马斯成员的数据:他们使用的手机品牌、常下载的应用、通话模式、移动路线。然后逐一搜寻显示出相似模式的人,给他们打分。就像流感病毒沿着传播链扩散一样,怀疑的网越撒越广。
生命被算法折算成数字
以色列军方对薰衣草90%的准确率颇为满意。乍一听,90%似乎相当高。但请停下来想一想这意味着什么:10%可能是错的。如果薰衣草将37,000人列为打击目标,其中3,700人可能是无辜的。3,700条生命,能被称为"误差范围"吗?
更可怕的是,战争爆发后,人工审核程序也变得松懈了。战前的内部规定要求"至少两条由人类直接获取的情报来支持薰衣草AI的判断"。但加沙战争一开始,这个标准就降到了"一条",实战中甚至连这一条也常常被无视。
一名情报分析员的证词令人毛骨悚然:"我们只是给薰衣草AI的决定盖了个确认章。批准一次打击只用了20秒。"生死攸关的重大决定,实质上是人工智能在做。人类的判断不过是走个过场。
一名军官冷漠的话概括了一切:"节省金钱、时间和人力,比平民的生命重要得多。"
"爸爸在哪里?"——把家人当人质的系统
与薰衣草配合运行的另一套系统,光是名字就让人不寒而栗。"爸爸在哪里?"(Where's Daddy?)——这套追踪系统一旦检测到目标人物回到家中,就会通知以色列军方。
为什么叫"爸爸在哪里"?原因既简单又残忍:瞄准父亲回家的那一刻发动攻击。这套系统学习目标人物的日常作息、锁定住宅位置、实时监控他何时进门。
一名以色列军官的证词触目惊心:"我们不只是在哈马斯成员进入军事建筑或执行军事活动时才攻击。在他们家里攻击要容易得多,这个系统就是为了确认哈马斯成员是否在家而设计的。"
结果不难预料。为了消灭一个目标,他的整个家庭跟着陪葬。在家中遭到轰炸,妻子和孩子不可避免地一同牺牲。这是对国际法明确规定的平民保护原则的公然践踏。
以"附带损伤"之名签发的屠杀许可证
六名以色列军方情报人员的证词更加令人震惊。战争最初几周,以色列军方认定,在暗杀薰衣草标记的每一名武装人员时,15到20名平民的牺牲属于"可接受范围"。攻击哈马斯指挥官级别人物时,100名以上平民的死亡也被允许。
美国国务院的一位国际法专家在接受《卫报》采访时表示,"1比15的比例,尤其针对低级别战斗人员,闻所未闻。"这意味着以色列设定的平民伤亡容许标准,在国际上史无前例地宽泛。
以色列国防军内部证人的话为整个局面做了总结:"不想在低级别武装人员身上投入过多人力和时间。即使要承受附带损伤、平民伤亡,以及误伤无辜者的风险,使用AI也是值得的。"
否定人的尊严的机器裁决
薰衣草系统最根本的问题在于,它把人的生命当作单纯的数据来处理。一个人的生活与情感、与家人的羁绊、个人的历史——全部被忽略,生死仅凭人工智能算法计算出的概率来决定。这是对人的尊严的根本否定,彻底颠覆了"技术应为人而存在"的原则。
透明性更是无从谈起。算法按照什么标准将某人归类为危险人物,无人确切知晓;被错误归类的人也没有任何途径证明自己的清白。在没有正当程序和法律保护的情况下,人的生命被夺走了。
加沙地带的人脸识别地狱
与薰衣草并行,以色列在加沙地带部署的人脸识别技术是又一场噩梦。2023年加沙战争爆发后,以排查哈马斯相关人员、辨识以色列人质为名引入的这套系统,实际上成了对巴勒斯坦居民进行无差别监控的工具。
以色列情报部队8200主导的这项行动采用了民间企业Corsight的人脸识别技术。通过检查站、无人机和军用摄像头运行,Corsight的员工甚至亲自到现场提供技术支持。
部署在加沙的以色列士兵配备了搭载该技术的摄像头,每当难民通过检查站时,随机拍摄并扫描面部,再与现有数据库比对以确定身份。
Corsight曾自夸其人脸识别技术"即便面部暴露不到50%,或在黑暗、低画质环境中也能准确识别"。但现实并非如此。巴勒斯坦诗人Mosab Abu Toha就是活生生的证人。他带着三岁的孩子踏上逃难之路,在以色列军方检查站被人脸识别摄像头扫描后,因AI的错误被误认为通缉名单上的人物,遭到两天的拘禁、殴打和酷刑。
国际特赦组织将以色列的这些行为批评为"自动化的种族隔离"。这成为AI技术被滥用于战争和监控时可能造成严重人权侵害的典型案例。
3. 仅凭步态就能找到你的中国
在中国的"天网"系统面前,无处可藏。这个名字取自老子《道德经》——"天网恢恢,疏而不漏",意思是上天的网看似稀疏,却不会放过任何恶人。但这里所说的"恶人",由谁来定义?答案是中国共产党。
1秒扫描14亿人
中国在全国安装了超过10亿台闭路电视。想象一下,10亿双眼睛全天候盯着你。中国政府声称,通过这套系统能在1秒钟内排查全部人口。1秒钟辨别14亿张面孔——技术上令人惊叹,从人权角度看却令人恐惧。
中国的人脸识别技术处于世界顶尖水平。在2018年美国国家标准与技术研究院(NIST)主办的人脸识别供应商测试中,前四名全部由中国企业开发的算法包揽。它们在这个领域领先世界的原因很简单:实验对象有14亿人。
99.8%的准确率
天网的人脸识别准确率高达99.8%。运行两年间,仅通过该系统抓获的犯罪嫌疑人就超过了2,000名。但值得注意的是,它不仅能识别人脸,还能通过步态识别个人身份。即便你戴着帽子或口罩也没用,仅凭步态就能找到你。
实际案例展示了这套系统的威力。17年前杀害男友的女性,被高速公路收费站的人脸识别系统找到了。在5万多人的演唱会现场,一名经济犯罪在逃人员被摄像头的面部识别技术发现并逮捕。2000年浙江省一起碎尸案的凶手在16年后被追踪到。
最戏剧性的案例发生在安徽省的一座寺庙。系统发现住持的面容与一名暴力犯罪嫌疑人吻合。改名换姓、以僧人身份生活了十多年的逃犯最终落网。
这些案例让人看到中国监控技术的精密和广泛。但与此同时,它们也揭示了这种技术对普通公民隐私的严重侵犯。
"锐眼"编织的监控网
2016年,经中共中央委员会批准,中国启动了"锐眼"(Sharp Eyes)工程——一项雄心勃勃的计划,旨在建成覆盖全国、全天候监控和管控的闭路电视监控网络。
锐眼工程不止是多装几个摄像头那么简单。它要把安装在道路和公共场所的闭路电视与居民的电视、手机、智能门锁等连接起来,构建一个可以实时掌握情况的网络。说白了,就是打造一个全民互相监视的社会。
想象一下:你的电视、手机,甚至家门,都变成了政府的监控工具。中国全境被一张巨大的监控网笼罩,意味的就是这样的世界。
日常监控
人脸识别技术如今已渗透到中国日常生活的方方面面。违反交通规则,违章者的面部照片会被拍下来,显示在公共电子屏上。闯红灯过马路会被自动抓拍。乘地铁刷卡,不需要手机,刷掌纹或刷脸就行。
甚至在北京天坛公园,为了防止厕纸被偷,引入了人脸识别机器。只有经过面部识别才能领取定量厕纸。就连上厕所,你的脸也会被记录。
2019年12月1日起,新办手机号码必须进行人脸扫描。政府以"保护网络空间公民权益"为名,实际目的是构建由政府主导的生物信息数据库。采集到的面部信息与全国7亿多台闭路电视联动的监控网络整合,实现了实时身份识别和移动轨迹追踪。
新冠疫情成了监控技术扩散的绝佳契机。学校、政府机关、住宅小区等场所,在测温的同时通过人脸识别进行出入管控已成常态。即便戴着口罩也能识别的技术已经被开发并投入使用。
新疆维吾尔
中国监控系统运行得最极端的地方是新疆维吾尔自治区。那里实实在在成了监控技术的实验场。清真寺、维吾尔社区、机场、火车站、公交站——新疆全境670万个点位都安装了闭路电视和面部扫描系统。
据人权观察报告,新疆地区十分之一的人口——250万人——每天都处于中国情报机关的监视之下。12岁到65岁居民的DNA、指纹、虹膜扫描、血型等生物信息被强制采集。这无异于把所有人都当作潜在罪犯来对待。
用于监控维吾尔族的"一体化联合作战平台"(IJOP)本身就是种族歧视的工具。该平台在新疆收集包括DNA在内的生物数据来追踪维吾尔人。这已超越了监控的范畴,意味着对特定少数民族整体的系统性压迫和管控。
人权观察获取的阿克苏地区2,000名维吾尔族被拘留者名单令人触目惊心。拘留理由包括:未经许可学习古兰经、蓄长须、使用VPN、频繁关闭手机、进行宗教活动等。这些日常行为竟成了将人关进拘留营的依据。
据报道,华为开发了专门针对维吾尔族的监控摄像系统,引发巨大争议。系统一旦检测到对象为维吾尔族少数民族,就会自动触发"维吾尔警报"并通知警方。阿里巴巴也被曝拥有可识别维吾尔族的人脸识别程序。
针对宗教信徒的"敲门行动"
中国强迫宗教信徒服从以无神论和马克思主义为根基的共产主义意识形态。共产党将宗教团体视为可能挑战党的权威的潜在威胁力量。
1860年洪秀全以基督教思想发动太平天国运动、差点颠覆清朝的记忆至今鲜活。习近平执政后提出"宗教中国化"政策,加强管控,要求宗教组织服从党和政府的要求。
根据中国刑法第300条,参与被禁止的宗教团体的活动被视为犯罪,可判处3至7年有期徒刑。政府向举报被禁宗教团体信徒的人提供10万元人民币的悬赏,建立了全民举报体制。
2017年初开始,一场名为"敲门行动"的大规模监控活动在全国展开。找个合适的借口派警察上门调查宗教信徒、拍照建档——这是全国追踪宗教信徒的监控系统的一部分。
收集到的数据存储在国家安全保卫部门的专用电脑中,调查人员四处搜寻传播宗教者的证据。一旦掌握证据,就启动进一步调查;调查结束后,通过"锐眼"和"天网"工程对目标进行持续不断的监视。
社会信用系统:被打分的人的价值
中国政府构建的社会信用系统以"守信激励、失信惩戒"的机制运行。它观察并给中国每一个人的行为打分。就像学校给学生的行为评分一样,政府逐一审视每个国民的行为并给出分数。
这并非中央政府通过法律系统性构建的体系,而是由地方政府、铁路部门、金融机构等各自搭建的系统。但由于众多地方政府和机构参与其中,实际上这套制度在全国范围内整齐划一地执行着。
信用分高的人住酒店不用交押金,签证审批也比别人快。相反,信用分低的人在住宿、乘火车、旅行自由等方面受到各种限制和制裁。
社会信用系统通过多种手段观察人们的行为。闭路电视24小时监控人们的举动,人脸识别技术可以确认谁在哪里做了什么。上网记录、购物记录、贷款还款记录、交通违章记录等日常生活的全部信息都被收集。
要拿高分,就得按时缴税、遵守交通规则、按时还款。做义工或孝顺父母也能加分。反过来,闯红灯、欠债不还、散布虚假信息就会被扣分。批评或反对政府的行为会导致分数大幅下降。
向全球扩散
最令人担忧的是,中国的监控模式正在向全世界蔓延。中国正在向其他国家出口监控技术,许多发展中国家正在引进这些技术。非洲、南美、亚洲多国已引入中国的监控技术,用于监视本国公民。
华为、海康威视、大华等中国企业开发的监控技术正在全球多国使用。这意味着中国式监控模式正在向全球扩散。
中国的天网系统是技术进步并不保障人的自由与幸福的典型案例。它以提升社会安全和秩序为目标而建,却是一个可能严重侵犯个人自由和人权的危险系统。技术的进步本应让人的生活更美好,却反过来被用作控制和压迫人的工具。
4. Palantir
你听说过Palantir Technologies这个名字吗?公司名称取自托尔金小说《指环王》中的魔法水晶球"Palantír"。小说里,这颗水晶球拥有监视和观察远方的能力。现实中的Palantir也如出一辙。
这家公司由PayPal联合创始人彼得·蒂尔于2003年创立,运营着全球最强大的数据分析与监控系统。它的客户包括美国中央情报局(CIA)、联邦调查局(FBI)、国家安全局(NSA)、国防部等美国核心情报机构。近年来,民间企业也开始使用Palantir的服务。
吞噬世间一切数据的数字克拉肯
Palantir的核心技术是整合和分析来自不同来源的海量数据。利用人工智能和机器学习技术,从数十亿个数据点中发现隐藏的模式和关联。卫星图像、手机通话记录、金融交易明细、社交媒体帖文、政府数据库——各种各样的信息都能被同时分析。
更可怕的是,这一切都是实时运行的。新信息一到达就开始分析,与现有数据比对以发现有意义的模式或危险信号。就好像一个巨大的数字大脑全天候监视着这个世界。
Gotham与Foundry:为政府和企业打造的全能之眼
Palantir根据主要客户群体运营两大平台:面向政府机构的"Gotham"和面向民间企业的"Foundry"。
Gotham是Palantir的政府平台,用于军事行动、反恐、情报收集和犯罪侦查等。Gotham被称为"数字棋盘",因为它将复杂局势可视化,如同棋盘一般,辅助战略决策。
Gotham的主要功能包括:首先是"信号情报"(Signal Intelligence)分析功能,可以实时分析全球收集的电子通信信息——手机通话、互联网通信、卫星通信等所有类型的电子信号。
其次是"人力情报"(Human Intelligence)整合功能。输入秘密线人的报告、访谈记录、现场观察报告后,系统会自动将其与其他信息关联分析。比如,线人报告的内容是否与卫星图像或通信截获内容吻合,可以即时核实。
第三是"地理空间情报"(Geospatial Intelligence)分析。实时分析卫星图像、无人机画面、地图数据,检测地面变化。新建筑物的出现、军队调动、武器部署等变化都能被自动发现。
第四是"开源情报"(Open Source Intelligence)收集与分析。自动收集并分析Facebook、Twitter、Instagram等社交媒体的帖文,可以实时掌握特定地区的政治氛围或社会不稳定程度。
Foundry是民间平台,数据分析功能与Gotham类似,但更侧重于企业运营而非军事或情报收集。它基于仿真引擎,可以整合管理企业的财务、人事、物流、库存等数据。
乌克兰战争:Palantir的实战舞台
2022年2月俄罗斯入侵乌克兰后,Palantir在战争中扮演了重要角色。战争爆发三个月后的2022年6月,乌克兰总统泽连斯基会见了Palantir CEO亚历克斯·卡普,请求军事支援。卡普是泽连斯基在战争期间会见的第一位西方企业CEO——这足以说明Palantir的重要性。
Palantir决定免费向乌克兰提供其软件。这是一个战略性判断,因为这是在真实战争环境中测试和改进技术的机会。从企业角度看,俄乌战争提供了只有真实战争才能获得的宝贵数据和经验。
Palantir为乌克兰提供的核心系统名为"Metaconstellation"综合分析平台。其核心功能是基于AI实时分析卫星图像、开源数据、无人机画面和情报报告,为乌克兰指挥官提供掌握战场态势和决定打击目标所需的情报。
Palantir CEO亚历克斯·卡普在接受路透社采访时说,"乌克兰军队的大部分攻击都由Palantir AI系统负责。"《经济学人》评价说,"在大卫(乌克兰)与歌利亚(俄罗斯)的战斗中,扮演大卫'弹弓'角色的正是Palantir的AI系统。"
民间监控的黑暗阴影
在战场上搜寻和追踪敌军的技术,只需稍加修改,就能变成政府监视和控制公民的工具。Palantir已多次陷入涉及民间监控的争议。
摩根大通最初引入Palantir是为了监控员工的违规行为。但当系统被用于窥探公司高管的私生活时引发了争议,合同最终被取消。
Palantir的系统有能力找到用户想要的任何信息。电子邮件、电话通话、金融交易、位置信息、社交媒体活动——个人的所有数字痕迹都能被追踪和分析。
Palantir与美国移民和海关执法局(ICE)签约,协助追踪和逮捕非法移民。这一案例表明,该技术可能被用来打压社会弱势群体。200多名Palantir员工签署了对ICE合同表示担忧的请愿书,13名前员工公开批评了公司的方向。
数字监控同盟的扩散
Palantir与包括美国在内的全球约40个国家的政府机构签有合同。这些国家的政府以反恐、犯罪侦查、边境管理、社会安全等名义引入Palantir的技术。但这些系统一旦建成,其使用目的和范围极有可能扩大。
在民主社会中,公民曾经能够监督和制衡政府。通过新闻自由、集会自由、言论自由,公民可以批评政府的错误、要求改进。随着Palantir这样强大的监控技术落入政府手中,这种平衡正在被打破。政府能够实时监控和分析每一个公民的行为,而公民却越来越难以知道政府在做什么。监视者与被监视者的关系正在发生逆转。
在国际层面,Palantir的扩散同样令人担忧。美国向盟国提供Palantir的技术,事实上正在形成一个"数字监控同盟"。这意味着监控技术正在全球范围内走向标准化。
技术与权力的危险结合
Palantir展示了技术与权力的结合可以多么危险。公司创始人彼得·蒂尔与美国共和党关系密切,曾支持唐纳德·特朗普。Palantir的技术被用于服务特定政治势力利益的可能性无法完全排除。
Palantir的市值已经超越了传统国防承包商。截至2024年12月,Palantir市值达到1,740亿美元,超过了洛克希德·马丁(1,216亿美元)、诺斯罗普·格鲁曼(690亿美元)等国防企业。基于软件的监控技术正在被赋予比基于硬件的传统国防企业更大的价值。
Palantir的案例发出了一个重要警告。技术不是中立的。它由谁来使用、出于什么目的、以什么方式使用——决定了它究竟会解放人类还是压迫人类。我们的选择将决定后代生活的世界是什么样子。
5. 美国NSA
2013年,爱德华·斯诺登泄露的NSA机密文件震惊了世界。美国国家安全局(NSA)窃听了35国领导人手机的事实被曝光。德国总理默克尔的手机从2002年到2013年被监听了大约十年。德国等欧洲盟国对美国表达了不信任,外交冲突加剧。
据斯诺登披露,美国在包括韩国和日本在内的38个友邦的驻美大使馆安装窃听器,用专用天线探测电波——进行了全方位的间谍活动。连布鲁塞尔的欧盟总部也成了监视对象,自诩"自由的守护者"却像对待敌国一样监控盟友。
通过名为"棱镜"(PRISM)的系统,美国直接接入谷歌、Facebook、苹果、微软等全球IT巨头的服务器,实时收集个人邮件、照片、通话记录等所有信息。甚至入侵了中国清华大学和香港通信企业,不分敌友地发动了无差别信息战。
德国司法部长愤怒地说"令人联想到冷战时期敌国的行径"——对盟国的背信式监控行为严重到了这种程度。CIA甚至利用德国法兰克福和汉堡的领事馆作为黑客基地,在盟国领土上公然进行网络间谍活动。
斯诺登事件后更加精密的监控
斯诺登揭露至今已过去十余年。其间,人工智能技术取得了飞跃式发展。在奥巴马总统道歉之后,美国情报机构真的停止了对盟国领导人手机和重要通信网络的窃听和监听吗?笔者认为,这些活动仍在继续。
如果说过去NSA的监控侧重于大规模收集通信数据,那么现在AI已进化到实时分析和预测这些数据的阶段。AI算法能在几分钟内分析出人类分析师需要数年才能处理的数据量。从电子邮件、社交媒体帖文、通话记录等海量信息中,瞬间掌握特定个人的政治倾向、批评性言论和社交网络,并绘制出关联图谱。
预测性监控和行为分析也已成为可能。通过学习过去的数据,可以预测特定个人或群体的未来行为。系统可以分类那些参加政治集会或在网上反复就特定话题发表意见的个人,并对其所有在线活动和通信进行集中监控。
人脸识别和行为识别系统也在发展。遍布全球的闭路电视、无人机、卫星图像等与AI的"眼睛"结合,构建了强大的实时追踪系统。AI不仅能识别特定人物的面孔,即便戴着口罩或只露出局部,也已发展到能确定个人身份的水平。通过分析步态、行为模式等生物特征信息,即便在人群中也能识别特定个人并追踪其行踪。
"五眼联盟":绕过国内法限制的监控同盟
由美国、英国、加拿大、澳大利亚、新西兰组成的"五眼联盟"(Five Eyes)情报同盟,正在利用尖端技术构建全球监控网络。各国情报机构共享和分析所收集的数据,运营着全方位的监视体系。
这个同盟最巧妙之处在于绕过各国的法律限制。美国政府直接监控本国公民在法律上受到约束,但从英国或其他盟国那里获取美国人的信息则相对自由。这实际上使得各国的个人信息保护法和监控限制规定形同虚设。
情报机构正通过Facebook、Twitter、Instagram等社交媒体平台大量收集个人信息。这些平台掌握着用户日常活动、人际关系、政治倾向、消费模式等海量信息。AI技术能够分析这些信息,预测个人的性格、政治倾向和行为模式。有研究表明,仅凭对特定帖文点"赞"的模式,就能以90%以上的准确率预测一个人的政治倾向。
金融监控与位置追踪的天罗地网
金融机构正在监控金融交易数据,从中了解个人的经济活动、消费模式和人际关系。当某人在特定地区取钱或在特定商店消费时,就能追踪此人的位置和活动。AI技术可能被滥用为监控所有公民经济活动的工具。
通过智能手机、GPS设备、信用卡等收集的位置信息,可以详细掌握个人的移动模式。AI技术能够分析位置数据,掌握个人的日常活动规律、会见的人物、常去的地点等。这些信息可用于预测和监视特定个人的行为。偏离日常模式的移动会被归类为"可疑行为",从而被列为额外监控对象。
蚕食民主的数字极权主义
基于AI的监控系统正在对民主和人权构成严重威胁。个人隐私、言论自由、集会自由、政治参与等民主的基本权利正受到监控和管制的制约。对政治反对者和社会活动人士的监控日趋强化,健康的政治辩论和社会批评可能因此受到压制。这将损害民主的基本原则——制衡。
我们正站在一个重大的十字路口。技术越发展,监控的精密度和覆盖范围就越大。现在是我们做出选择的时候了。是以便利和安全之名接受全方位监控而生活,还是宁可忍受不便也要守护自由和人的尊严。
6. 数字独裁的威胁
未经同意的大数据掠夺
你早上起床查看手机、坐地铁上班、在咖啡馆喝咖啡、网购——每一个瞬间都变成了数据。而这些数据在未经你同意的情况下被收集、分析,并成为判断的依据。
全球运行的AI监控系统最根本的问题是:它们从不征求人们的同意。以色列的薰衣草系统收集并分析了加沙地带230万居民中绝大多数人的信息。在中国,不管国民愿不愿意,面部信息都被强制采集。
个人信息自决权是民主社会的基本权利。每个人都有权知道自己的信息被谁、在何时、以何种目的使用,并有权决定是否同意。然而AI监控系统完全无视这些权利。
更严重的是,所收集信息的范围超乎想象。不只是面部照片或姓名,位置信息、通话记录、网络搜索记录、社交媒体活动,甚至步态和行为模式——一切都是采集对象。你的一举一动全部被记录和分析。
黑箱算法的专制
这些系统究竟如何运作,普通人无从得知。薰衣草的算法如何训练和学习、中国的人脸识别系统按什么标准识别人——都没有被明确公开。事关人命的重要决策系统,其运作过程却被层层保密。
算法的透明性是民主社会极为重要的原则。对于影响个人权利的自动化决策,人们有权了解其依据和过程。但当前的AI监控系统都处于"黑箱"状态运行,无人能确认其内部运作原理。
这极其危险。即便算法存在偏见或错误,也无法确认和修正。做出了错误判断也不知道原因,因此也无法纠正。
这些系统远非完美。薰衣草系统10%的误差率意味着无辜平民被错误识别的风险。即使中国的人脸识别系统号称99.8%的准确率,1,000人中仍有2人可能被误判。在14亿人口中应用,数千万人可能遭受误识的伤害。
24小时监控的电子牢笼
想象一下现代AI监控系统所制造的世界。从出门那一刻到回家,除了睡觉,每一个瞬间都被记录和分析。去了哪里、见了谁、买了什么、甚至做了什么表情——全部变成数据。
中国的监控系统与分析国民社会行为、甚至评估对政府忠诚度的社会信用制度相连。这严重限制了人们自由行动和思考的权利。
这种全面监控制造出"寒蝉效应"(chilling effect)。一旦知道自己时刻被监视,人们就会克制自由表达观点或参与政治活动。其结果是扼杀民主的根基——言论自由和政治参与。
看看维吾尔族的遭遇。未经许可学古兰经、蓄长须、使用VPN就被拘押。宗教自由、言论自由、隐私自由全部遭到侵犯。在日常行为都可能被视为犯罪的社会里,没有人是安全的。
机器做出的生死裁决
关于薰衣草系统,一名以色列情报人员的证词令人胆寒:"作为人类,除了盖确认章之外,我什么都没做。"在事关生命的最重要决策中,人类的判断实质上被架空了。
将关乎人命的决定交给机器,极其危险。无论AI多么先进,都无法完全理解复杂局势的来龙去脉或做出伦理判断。在战争或治安情况下,意外变量层出不穷,机械式判断可能带来致命后果。
自动化决策使得责任归属变得模糊不清。当错误决定导致无辜者受害时,究竟该由谁负责——开发者?运营者?还是下达命令的上级?难以厘清。
想想巴勒斯坦诗人Mosab Abu Toha的遭遇。带着三岁孩子逃难的他,因人脸识别AI的错误被误判为通缉犯,遭受两天拘禁和酷刑。机器的一个失误,给一个人的人生留下了无法抹去的伤痕。
瞄准弱者的数字猎犬
AI监控系统的另一个问题是对特定群体的歧视性监控。中国的监控系统被用作打压维吾尔族、哈萨克族等少数民族的工具。这违反了人人应受平等对待的基本人权原则。
AI系统会如实反映训练数据中的偏见。如果训练数据中包含对特定种族或宗教的偏见,AI就会学习并再生产这些偏见。其结果是将社会中既有的歧视以技术手段固化并放大。
少数民族和宗教少数群体本已处于社会弱势地位,AI监控系统对他们进行更具歧视性的监视和管控,使其人权状况进一步恶化。
华为的"维吾尔警报"系统和阿里巴巴的维吾尔族识别程序赤裸裸地展示了技术如何沦为种族歧视的工具。仅因是特定民族就自动触发警报的世界——这是我们想要的未来吗?
践踏国际法的数字无法地带
媒体强烈批评以色列基于AI的攻击是"公然无视国际法的反人道行为"。国际法保障每个人的生命权、隐私权、言论自由和宗教自由。国际人道法还规定,即便在战争中也必须区分平民和军事目标,必须避免过度的平民伤亡。
然而目前运行的AI监控系统正在正面违反这些国际法原则。"爸爸在哪里"系统蓄意轰炸家人团聚的住宅;中国对整个维吾尔族实施监控和压迫;美国对盟国通信进行无差别监听——这些都是违反国际法的行为。
更严重的是,这些违法行为正在以"技术发展"之名被合理化。每当新技术出现,就仿佛可以无视既有的法律和伦理标准。
对人的尊严的抹杀
AI监控系统的根本问题在于将人还原为数字和数据。薰衣草系统用1到100分的分数来评判一个人。中国的社会信用系统同样将个人的一切行为量化为分数。
人生而拥有平等的尊严。这是不可被任何标准评判或计算的绝对价值。AI监控系统否定了人的这种尊严,仅从效率和利益的角度看待人。
更可怕的是,这种评分成了决定生死的标准。在薰衣草系统中得高分就意味着死亡,在中国社会信用系统中得低分就被社会隔离。机器打的分数左右人的命运——这就是我们身处的时代。
为民主敲响的丧钟
AI监控系统的扩散正在从根本上威胁民主的核心价值。言论自由、集会自由、宗教自由、隐私权——民主社会赖以为基的一切权利都面临危险。
# 搜索关键词
中文搜索词:
AI监控系统, 人工智能监控, 以色列薰衣草AI, Lavender AI系统, 加沙人脸识别, 中国天网系统, 社会信用系统, 新疆维吾尔监控, 锐眼工程, Palantir数据分析, 棱镜计划PRISM, 五眼联盟监控, 斯诺登NSA, 数字极权主义, AI人权侵害, 算法歧视, 自动化战争伦理, 大数据隐私, 人脸识别技术滥用, AI军事应用
英文搜索词:
AI surveillance system, Lavender AI Israel, Gaza facial recognition, China Skynet CCTV, social credit system China, Xinjiang Uyghur surveillance, Sharp Eyes project, Palantir Gotham Foundry, PRISM NSA Snowden, Five Eyes intelligence, digital authoritarianism, algorithmic discrimination, autonomous weapons ethics, AI human rights, mass surveillance technology, predictive policing AI, biometric data collection, Corsight facial recognition, Palantir Ukraine war, AI military targeting