アカウント名:
パスワード:
一個の端末で得られるデータ量を考えたら、端末で学習はさせないんだろうけど、そうすると専用チップ化するメリットはどのぐらいあるんだろう・・・なんて半可通は思っちゃうけど、どうなんだろ。
Google的思考ならそうなんだけど、プライバシーを重視するAppleはサーバーに預けず、それぞれの端末でやる方向でしょ。効率的にはサーバーでやる方がいいのは確かだが、情報を全て預けられますか?ってことかと。
確か、現状でも画像の各種認識などは各デバイスでやってるから、画像はiPhone、iPadで共有するのに、認識作業は各デバイスでそれぞれやってる。無駄と言われれれば無駄だろうけど。
その代わりAIが判断に使うデータを全部ネットに飛ばす(しかも可能な限り詳細なデータで)必要がありますね当然ネット側に全転送されるのは嫌なセンシティブな状況ということもあるでしょう
端末側である程度処理すれば、ネットに飛ばすデータ量は減るし「匿名化(笑)してる(大笑)」という名目でいついかなるときでも勝手にデータを飛ばせるようになりますから
そりゃサーバでの処理が増えれば企業の費用負担が増えますからな。ローカルでできることはローカルでやるほうが良い。ローカルでの処理を増やすのは個人情報保護のためにもなる。他方リバースエンジニアリングに対する強度が低下する。
拡張現実を全部クラウド経由にするとFPSのラグみたいになるのでは。
自動運転向けチップの性能強化が進んでいる理由がそれです。コンマ数秒の反応遅れで容易に大事故に繋がるため、量子通信が実用化されない限りデータをクラウドとやりとりする余裕がありません。
例えば音声情報はテキストに変換して送信するとかすれば消費するバッテリー量・通信コストは減るA:大量データアップロードで消費するバッテリー量・通信コストB:専用チップで情報を絞り込む時に消費するバッテリー量・通信コストとしてA>Bってことなんだと思うあとは個人差に関する処理がサーバでやると無駄にコストがかかるのかもしれない
気になるのは個々のデバイスに保存されるニューラルネットの情報は全体の認識精度や学習時間の向上にも役立つ可能性があるということよくできた認識機はよくできた生成機になり得るのでこれをプライバシーに抵触しないようにどう集めるのかあるいは諦めるのかが気になるところ
全部クラウドでやると、旧端末でもそのサービスが利用可能になってしまい、買い替えの動機が無くなってしまうじゃないか。
Siriのケースを思い出せ。あれも「ぜーんぶクラウドでやっちまう」から、Appleに買収される前は全機種で利用可能だったのに、Appleに買われた後はiPhone4以降の機種のみでしか使えなくなった。そんな制限を設ける技術的な理由などないのに。
Appleはハードウェアを売って稼ぐ会社だから、なんとしても新機種に買い替えてもらわねばならんのよ。
差別化する必然性が無いものまで、無理やり差別化のネタにするという実例ですよ。
買収前はともかく、今のSiriも「ぜーんぶクラウドでやっちま」っているという証拠は?
帯域節約・レイテンシ軽減の為に前処理を端末でやってからクラウドに行っている可能性も十分考えられるだろう。
げんにこの記事は、そういう前処理に向いてそうなチップをAppleが作るかもしれないという話なのだし。
端末に載せると端末の値段を上げられるから。クラウドでやる廉価版と、エッジでやる高級版を売り分ける。廉価版の方も高い回線使用料を払って帯域を確保すればサクサク使えるかも知れないけど。
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
人生の大半の問題はスルー力で解決する -- スルー力研究専門家
エッジデバイスに落とし込むのが流行ってる…? (スコア:1)
Re:エッジデバイスに落とし込むのが流行ってる…? (スコア:1)
一個の端末で得られるデータ量を考えたら、端末で学習はさせないんだろうけど、そうすると専用チップ化するメリットはどのぐらいあるんだろう・・・なんて半可通は思っちゃうけど、どうなんだろ。
Re:エッジデバイスに落とし込むのが流行ってる…? (スコア:1)
Google的思考ならそうなんだけど、プライバシーを重視するAppleはサーバーに預けず、それぞれの端末でやる方向でしょ。
効率的にはサーバーでやる方がいいのは確かだが、情報を全て預けられますか?ってことかと。
確か、現状でも画像の各種認識などは各デバイスでやってるから、画像はiPhone、iPadで共有するのに、認識作業は各デバイスでそれぞれやってる。
無駄と言われれれば無駄だろうけど。
Re: (スコア:0)
その代わりAIが判断に使うデータを全部ネットに飛ばす(しかも可能な限り詳細なデータで)必要がありますね
当然ネット側に全転送されるのは嫌なセンシティブな状況ということもあるでしょう
端末側である程度処理すれば、ネットに飛ばすデータ量は減るし
「匿名化(笑)してる(大笑)」という名目でいついかなるときでも勝手にデータを飛ばせるようになりますから
Re: (スコア:0)
そりゃサーバでの処理が増えれば企業の費用負担が増えますからな。ローカルでできることはローカルでやるほうが良い。
ローカルでの処理を増やすのは個人情報保護のためにもなる。
他方リバースエンジニアリングに対する強度が低下する。
Re: (スコア:0)
拡張現実を全部クラウド経由にするとFPSのラグみたいになるのでは。
Re:エッジデバイスに落とし込むのが流行ってる…? (スコア:1)
自動運転向けチップの性能強化が進んでいる理由がそれです。
コンマ数秒の反応遅れで容易に大事故に繋がるため、量子通信が実用化されない限りデータをクラウドとやりとりする余裕がありません。
Re: (スコア:0)
例えば音声情報はテキストに変換して送信するとかすれば
消費するバッテリー量・通信コストは減る
A:大量データアップロードで消費するバッテリー量・通信コスト
B:専用チップで情報を絞り込む時に消費するバッテリー量・通信コスト
として
A>Bってことなんだと思う
あとは個人差に関する処理がサーバでやると無駄にコストがかかるのかもしれない
気になるのは個々のデバイスに保存されるニューラルネットの情報は
全体の認識精度や学習時間の向上にも役立つ可能性があるということ
よくできた認識機はよくできた生成機になり得るので
これをプライバシーに抵触しないようにどう集めるのか
あるいは諦めるのかが気になるところ
Re: (スコア:0)
全部クラウドでやると、旧端末でもそのサービスが利用可能になってしまい、買い替えの動機が無くなってしまうじゃないか。
Siriのケースを思い出せ。
あれも「ぜーんぶクラウドでやっちまう」から、Appleに買収される前は全機種で利用可能だったのに、
Appleに買われた後はiPhone4以降の機種のみでしか使えなくなった。そんな制限を設ける技術的な
理由などないのに。
Appleはハードウェアを売って稼ぐ会社だから、なんとしても新機種に買い替えてもらわねばならんのよ。
Re: (スコア:0)
Siri のような典型的なクラウドサービスでも機種制限設けられるって実例ですよね。
クラウドでやっても Apple がやりたい制限は自由にかけられるんでは?
むしろ、クラウド通さないといつまでも利用されてしまうから、そっちのほうが Apple のメリットになりにくい気がしますけど。
Re: (スコア:0)
差別化する必然性が無いものまで、無理やり差別化のネタにするという実例ですよ。
Re: (スコア:0)
買収前はともかく、今のSiriも「ぜーんぶクラウドでやっちま」っているという証拠は?
帯域節約・レイテンシ軽減の為に前処理を端末でやってからクラウドに行っている可能性も十分考えられるだろう。
げんにこの記事は、そういう前処理に向いてそうなチップをAppleが作るかもしれないという話なのだし。
Re: (スコア:0)
端末に載せると端末の値段を上げられるから。
クラウドでやる廉価版と、エッジでやる高級版を売り分ける。廉価版の方も高い回線使用料を払って帯域を確保すればサクサク使えるかも知れないけど。