• メイン
  • 他の
  • AIはスタートレックからのデータに不気味に近づいています:TNGはあなたがそれを信頼できるかどうかを知っているので

AIはスタートレックからのデータに不気味に近づいています:TNGはあなたがそれを信頼できるかどうかを知っているので

どの映画を見るべきですか?
 
>

からのデータほど自己認識的ではないかもしれません スタートレック:TNG (まだ)特に、そのドロイドは一部の人間よりも猫の世話をすることができるので、AIは今では信頼できないときに気付くようになりました。



現在呼ばれているもの 深い証拠の回帰 AIの自己認識をレベルアップしました。調べているデータの信頼性を評価することに基づいて、予測でエラーが発生する可能性が高い時期を認識します。より徹底的で正確なデータの影響を受けた場合、将来の予測はうまくいく可能性が高くなります。反対は、物事がおそらくうまくいかないことを意味します—そしてAIはそれを感知することができます。それが何かについての確実性を推定するとき、その確実性はそれが供給されるデータに応じて上下します。 AIは、99%の精度でリスクまたは不確実性を判断できます。

ディザスターアーティストの常識的なメディア

ピカードでさえ感動するようですが、待ってください。自己認識ロボットには1つだけ欠点があります。それは、99%がどれほど接近していても、完全に確実ではないということです。自動運転車の運転から手術の実施まで、わずか1%のずれは、生命を脅かす可能性のあるシナリオで災害を意味する可能性があります。怖い。







[深い証拠回帰]には既存のアプローチに比べていくつかの利点がありますが、その主な制限は、正則化係数の調整と、不確実性を調整するときに誤解を招かない証拠を効果的に削除することです。 MIT博士は言った学生アレクサンダーアミニ 、彼は来月のNeurIPS会議で発表する研究を主導しました。

アミニと彼のチームが何とかしてきたことは、今でもかなり注目に値します。これまで、AIを使用して不確実性を推定することは、費用がかかるだけでなく、ほんの一瞬で行う必要のある決定には遅すぎました。ニューラルネットワークは非常に巨大であるため、答えを計算するのに永遠にかかる可能性があり、信頼水準を学習するのを待つのは長すぎて、努力することすらできません。このようなものを自分で使用するのは無意味です-すぐにどちらの方向に進むかを知る必要がある自動運転車。 プロセスは早送りされました 深い証拠の回帰によって。このニューラルネットワークは、不確実性のレベルを見つけるために1回だけ実行する必要があります。

バック・トゥ・ザ・フューチャー・エイジ・レーティング

AIがすでに学習したモデルの不確実性を推測することで、エラーの許容範囲がおおよそどれだけ広いかを知ることができます。 AIは、証拠を使用して見積もりをバックアップします。この証拠には、ニューラルネットワークによって分析されたばかりのデータに潜んでいる不確実性、またはそれ自体の決定にどれほど自信があるかについての自己認識が含まれます。 Aminiと彼のチームは、画像内の各ピクセルの深さを推定するようにAIをトレーニングすることにより、深層証拠回帰法をテストしました。奥行き知覚は、体の奥深くに位置し、他の方法では見るのが難しい腫瘍を取り除く必要がある手術での生死を意味する可能性があります。

AIはほとんど正確でした しかし、それは台無しになりました 一度それが覚えるのがより難しい画像を与えられた。少なくとも、一貫性のあることが1つありました。それは、困難をもたらす画像に直面したときに、チームにその不確実性を確実に通知することでした。その決定された許容誤差は、少なくとも研究者にそのモデルを改善する方法を教えることができます。 Photoshopで処理された写真を認識する機能により、ディープフェイクを認識する可能性も広がります。人間は、このロボットの脳がまだ壊れやすいことを知っておく必要があります。私たちは、それ自体を信頼できる以上にそれを信頼することはできません。

誤解を招かない証拠を削除する別の方法を見つけるために、さらなる調査が必要であると私たちは信じています。 アミニは言った

つまり、深い証拠の回帰を使用して考えることができるAIは、間違った答えの結果が致命的でない限り、かなり信頼できます。

私の心の本のレポートから