【6/18 週報】自己的社區自己救!英國新網站助社區保存文化資產

OCF
g0v.news
Published in
5 min readJun 18, 2018

--

整理撰文|林冠廷、陳廷彥

地方團體需要保存社區資產!新平台助造冊

(Photo Credit:Screenshot)

2011年,英國通過《地方主義法》(The Localism Act),允許社群集資購買社區內出售中的建築物或土地,以保護這些資產。不過新規定在蘇格蘭順利運作的同時,到了英格蘭卻缺乏實際的購買權,使得法案雷聲大雨點小。

英國公民科技組織mySociety決定推出「留在社區」(Keep it In The Community)網站,希望至少可以協助把具有社區價值的資產進行更完整的造冊。測試版的「留在社區」網站,將會收集英格蘭現有的所有資產清單,提供管道讓社群可以提出新的社區價值資產,並且讓成員能在網路上登錄詳細的資產細節、相片與軼事。目前已經搜集了20個社區,未來幾週將會增加50個。

人工智慧的倫理如何可能?星國設諮詢委員會

(Photo credit:Infocomm Media Development Authority)

隨著企業與政府陸續開發人工智慧服務,新加坡資通訊媒體發展管理局(Infocomm Media Development Authority)決定聯合AI使用者、科技公司,以及社會與消費者觀點的代表,組成人工智慧道德委員會,協助政府制定倫理治理規範,相關公司有需要也能自願諮詢。

資通訊媒體發展管理局同時與新加坡管理大學合作,要在未來五年研究「促進人工智慧和資料使用引發的倫理、法律、政策和治理問題的論述」。

演算法是否公平?紐西蘭政府一一盤點

(Vido credit:紐西蘭內政部)

資料分析與統計往往是政府施政的基石,但紐西蘭移民局在四月承認,他們在審核移民時使用的演算法存在年齡、性別與種族歧視的潛在危機。為了回應公眾對於資料分析日漸增長的興趣,政府資訊服務部長Clare Curran與統計部長Shaw發表聯合聲明,將緊急盤點政府使用的演算法。

不只是移民審核,Shaw指出衛生部的器官捐贈服務和交通局的道路安全模型,都使用了演算法。為了透明性與程序正義,政府要研究演算法的使用,帶給公眾信心。其中,初步的政府演算法使用回顧,將於八月前完成。

諮詢公司開發人工智慧應用,檢測演算法中的偏見

(Photo credit:Accenture)

演算法跟貸款、信用、犯罪息息相關,任何偏見都會嚴重影響人民權利。服務許多財星五百大企業的跨國諮詢顧問公司埃森哲(Accenture),就推出了「公平工具」(Fairness Tool),利用統計方法識別客戶的演算法對於不同性別與族群是否待遇不公。

不過,埃森哲的「負責任AI」負責人Chowdhury說:「我不能跑過來,然後就說,讓我花兩個月調查你的演算法。」因此,他們的「負責任AI」將可與客戶的演算法開發過程整合在一起,即時讓開發者察覺任何問題。他表示:「有時我會開玩笑地說,我想讓『負責任AI』這個詞變成多餘。它必須是我們開發人工智慧的方式。」他說:「而公司必須建立倫理的文化」

這場議員選戰,只有18歲以下可以投票

(Photo Credit:Screenshot)

近日美國校園槍擊頻傳,學生三月開始紛紛上街抵制槍枝;但政客不需要理會這群沒有投票權的國民,因此幾個廣告公司的創意工作者決定扭轉現況。他們與槍枝暴力倖存者和學生反槍枝組織合作,開發「我們能投票」(WeCan.Vote)系統

「我們能投票」採用非營利組織Vote Smart的「槍枝協會評等」,計算政客從支持擁槍的槍支協會中拿了多少錢,再加入其他指標,評等是A就代表他們與擁槍派走得最近。用戶只要選擇州別,該州各個代議士的評等就一目了然。18歲或以下的青年,驗證信箱或臉書後,還可以投票要求議員下台,目前也可看出,愈支持擁槍的議員,被投下台票的比例就愈高。不過「我們能投票」從五月下旬上線以來,只有不到300名青少年真的加入「投票」。

本文章授權條款為以下:
文章發佈 48 小時內,採創用 CC BY-NC-ND (姓名標示-非商業性-禁止改作) 3.0 台灣。
文章發佈 48 小時後,採創用 CC BY (姓名標示) 3.0 台灣。

--

--

Open Culture Foundation, a non-profit organization which focus on promoting open source, open data, and open government.