AIと文化研究会 2019年7月19日 15:00〜@理研AIP The Natural Law of Robotics: Rethinking AI Governance from Human-Robot Interaction ・背景:AIの影響、ELSIの考慮、政府の問題としても理解できる ・Hard law/Soft law ## Soft Law 産業団体 ・IEEE ・ISO 13482 ・BSI (British Standards Institution) 各国政府等 ・EU Parliament's Draft report ・Eu Commit 日本政府 ・内閣府:人間中心AIの原則 ・総務省:AI使用原則、R&Dガイドライン 学会関係 ・JSAI Ethical Guidelines ## Hard Law 「もしロボットが事故を起こしたら?」 →Robot Law Association 基礎的問題 1. Emerging technology and law(ex. [赤旗法](https://ja.wikipedia.org/wiki/%E8%B5%A4%E6%97%97%E6%B3%95)) ・安全を意識するあまり過剰規制へ 2. ロボット法か、既存法の改正か ・ラジオ法(周波数関連)や、プライバシーなど新しい課題に対応しなければいけないこと自体はこれまでの歴史にもあったこと ・AIは政府(立法)にとって大きな課題になる →Natural Lawの提案  ・近代社会における法実証主義、専門家主義、Hard law  ・自然法は実定法を超えた法のスタンスを提供 (factualな)自然法 ・「動物は機械にすぎない」「地球は平たい」などの言明、神明裁判 ・Orthogonality thesis:超知性は任意に目標を設定できる(=特定目標を必ずしも持たない) ・複雑系科学 (Moralな)自然法 ・実定法 ・広い意味の「倫理」:①良心、②立法方針 ・狭い意味の「倫理」ーSoft law いかに実装するか? **ロボットにおける**自然法 ・実定法 ・広い意味の「倫理」①良心、②立法方針**→法の未来** ・狭い意味の倫理——**黄金律** #### 黄金率 ex.(アシモフの)ロボット三原則 →新しいロボット法(BY.Frank Pasquale) ・ロボットは職業の代替ではなく補完であるべき ・ロボット軍備競争を止めるべき ・ヒューマノイドやAIを作ってはいけない #### 法の未来 ・立法方針 ①複数の専門分野における学際研究 ②過剰規制を避けることによるイノベーションの促進 ③技術者による、ロボットや人工知能における実際のケースを通した自然法の「発見」 ・「三番目の存在」としてのロボット ・Open texture risk:ISO12000の三段階方法(?)によって特定されることが難しいリスクのことをいう ・HRI(Human-Robot Interaction)を使用することによって自然法を「発見」する ・Social Robot vs Classical Robot ・ペッパーを蹴ることは法的にいかに問われるのか? ・(そして)問われるべきか? Osaka robotics x Kyoto law ・責任と心認識の関係の研究:人間と人工物の共同作業で失敗したとき、機械に責任があると捉えられるべきなのか? ・知能のピラミッド ・Action Intelligence, Autonomous ones, Human-Based ones ・Human-based Intelligenceは新しいロボット法(2.0)を要求 ・Autonomous Intelligenceはロボット法1.0を要求 Waseda Robotics × PKU Law ・特区におけるロボットの法的問題のケーススタディ ・いかにAIの安全を保証するか? ・つくばの特区:自律ロボットの横断歩道の走行試験 ・機械倫理とその問題 ・機械のメタ倫理、形式、規制、などHuman-based Intelligenceとthird-existance robotでカバーしている範囲が異なる | | 機械メタ倫理 | 形式 | 規制 | | - | :----: | :----: | :----: | | Human-based <br> Intelligence | x | o | x | | Third-existance <br> robot | x | x | o | Open-texture risk と safety intelligence Tohoku Robotics and Law ・埋め込み(embodied)AIとHRIにおけるプライバシー ・Proximity, Deception, Safety ・Torts vs Privacy ・ヘルスケアにおける支援ロボット ・Privacy vs Proximity(親密さ) ・Privacy vs Deception(詐欺) ・Privacy vs safety(安全) ## Conclision ・HRIはロボットの自然法を発見するための新しい道具になりうる ・自然法は過渡期におけるHard lawの法的なギャップを埋める ・しかし、そのためには学際協力が不可欠 # 質疑応答 Q. ロボットは人工物なのに自然法概念を用いることはできるのか  自然法は法の種類の一つ。現行法は実行法であり、議会によって決定されるもの。自然法はソフト・ローの延長線上にあるものである。 Q.実行法は不十分ということを主張したい?  過去の自然法と同列に置くことはできない。自然法はそれ自体ソフトローとしての性格を持つ。 ・コモン・ロー アメリカ法で公衆の安全の原則によって車の規制はなされた。売る側や製作者は責任がある。歴史どうこうの前にそのような原則があるのでは? 倫理学からのアプローチはもはや「役に立たない」? ・倫理を教えることももう一つの課題になっている Q.シンギュラリティは自意識を持たない。「自意識(Self-awareness/Free will)」とは?(責任につながる) ・特に今回の発表では規定していない Q.Privacy vs Deception ・チーティングみたいなもの、IoTと交わることで「プライバシー」の概念も変化 Q.人々は何をもっとも心配しているのか? ・データベース 自然法は事態の記述に近いので、法の起源はどうなのか? なぜロボット法を新たにやらなければならないのか? ・ソフト・ローでは不十分なのか?(再び) ・実行法としての性質を持たないのではないか? ・現在もソフトだけど将来もソフト・ローなのか? ハード・ローになるのかどうかは疑問だ ・現状は規制を欠いている ・原理を使えるレベルにまで引きおろす必要 ・データがバイアスがかっている ・What is natural principal? ・何を守るべきか? いかに規制すべきか? ・データでもありアルゴリズムでもある ・Learning Data=教師データ ・Varidation 文字の違い Ontological Proble