• 2024/08/16 掲載

AIの安全性チェック=政府機関、評価ポイント公表へ

時事通信社

photo
  • icon-mail
  • icon-print
  • icon-hatena
  • icon-line
  • icon-close-snsbtns
会員になると、いいね!でマイページに保存できます。


人工知能(AI)の安全性を評価する際の基準を検討する政府の専門機関「AIセーフティ・インスティテュート(AISI)」の村上明子所長が15日までにインタビューに応じ、安全なAIを使っているかどうかを事業者が確認するためのチェックポイントを整理していることを明らかにした。月内をめどに公表する。

生成AIが普及する中、偽情報の生成と拡散、知的財産権侵害などへの懸念から国際的にAIの安全性に対する関心が高まっている。政府は「海外(の研究)機関と連携し、安全性の評価手法の研究や規格作成などを行う機関が必要」(岸田文雄首相)として、AISIを2月に設置した。

村上氏は「(事業者の使用している)AIが安全か危険かをどのようにすれば評価できるか、という観点を整理している」と述べた。基準の策定に先立ち、生成AIが個人情報を読み込んだデータを参照していないかなどを確認するための観点をまとめ、安全性評価の参考にしてもらうのが目的。AIのセキュリティー上のリスクを事前に特定するテストの手順書公開も検討する。

AI規制を巡っては、欧州連合(EU)が5月に関連法を成立させた。日本でも法規制の必要性に関する議論が始まった。村上氏は、規制の議論では「人命や人権に関わる部分を法制度で守っていく検討を怠ってはいけない」と指摘した。

AISIは現在、関係省庁や民間企業からの出向者ら24人の体制。村上氏は、専門人材の確保を進め、組織を2倍程度に拡大していきたい考えも示した。基準策定に向け、産業技術総合研究所や理化学研究所などとの協力も進めていく方針だ。

【時事通信社】 〔写真説明〕インタビューに応じるAIセーフティ・インスティテュート(AISI)の村上明子所長=7月26日、東京都新宿区 〔写真説明〕インタビューに応じるAIセーフティ・インスティテュート(AISI)の村上明子所長=7月26日、東京都新宿区

評価する

いいね!でぜひ著者を応援してください

  • 0

会員になると、いいね!でマイページに保存できます。

共有する

  • 0

  • 0

  • 0

  • 0

  • 0

  • 0

  • icon-mail
  • icon-print
  • icon-hatena
  • icon-line
関連タグ タグをフォローすると最新情報が表示されます
あなたの投稿

    PR

    PR

    PR

処理に失敗しました

人気のタグ

投稿したコメントを
削除しますか?

あなたの投稿コメント編集

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

通報

このコメントについて、
問題の詳細をお知らせください。

ビジネス+ITルール違反についてはこちらをご覧ください。

通報

報告が完了しました

コメントを投稿することにより自身の基本情報
本メディアサイトに公開されます

必要な会員情報が不足しています。

必要な会員情報をすべてご登録いただくまでは、以下のサービスがご利用いただけません。

  • 記事閲覧数の制限なし

  • [お気に入り]ボタンでの記事取り置き

  • タグフォロー

  • おすすめコンテンツの表示

詳細情報を入力して
会員限定機能を使いこなしましょう!

詳細はこちら 詳細情報の入力へ進む
報告が完了しました

」さんのブロックを解除しますか?

ブロックを解除するとお互いにフォローすることができるようになります。

ブロック

さんはあなたをフォローしたりあなたのコメントにいいねできなくなります。また、さんからの通知は表示されなくなります。

さんをブロックしますか?

ブロック

ブロックが完了しました

ブロック解除

ブロック解除が完了しました

機能制限のお知らせ

現在、コメントの違反報告があったため一部機能が利用できなくなっています。

そのため、この機能はご利用いただけません。
詳しくはこちらにお問い合わせください。

ユーザーをフォローすることにより自身の基本情報
お相手に公開されます