アカウント名:
パスワード:
初めからハイエンドに設計されているAppleのチップだがこれがiPad同様廉価版として販売されるようになるとパワーバランスがくるってくる。ギガスクールで廉価版のiPad最強同様MacBookAirで5年後に搭載されることを考えるとオラわくわくすっぞ
言うほど変わらんような。x86系じゃないと困るものは5年ぐらいじゃ移行しないだろうし、ARMで良いなら5年と言わず移行は終わってそうだし。今のWindows-x86しかないアプリが、どこまでM1にも対応するかと言ったら、そこまで期待はできんし。
廉価品に積むM1でx86エミュレーションしてもCore i5ぐらいのパフォーマンス出ます、とかなら、そりゃまあバランス崩れるだろうけど、そこまでは行かんでしょ。
>廉価品に積むM1でx86エミュレーションしてもCore i5ぐらいのパフォーマンス出ます
もう出てなかったっけ?
単純なベンチマークなら出るけど、所詮はRISCなのでi86用にきちんとチューニングされたコードだとパフォーマンス出ないし、スレッド処理でサクサク動いてみせるような部分は厳しい。
機械学習のようなCPUパワーが重要なソフトだと絶対性能でx86がいまだ有利
既にIntelCPUに優位性はありませんよ。来年もまた新しいCPUが出るでしょうし差は拡大していくことでしょう。
Appleの新しいM1チップ搭載MacBookは機械学習に関するビーストマシンだ【後編】(TensorFlowでの比較)https://ainow.ai/2021/03/02/252780/ [ainow.ai]記事はM1 今回は高速版のPro/MAX
アップルのデモで紹介されていましたが、機械学習もCore i9に比べても3倍早いって紹介してましたけど
まぁ、専用のアクセラレータのせてるからね。3倍かどうかはわからないけど、早いよね。
ハイエンドGPUに近いサイズのチップで、機械学習がi9の3倍だとイマイチなような。ノートPCに乗ってるGPUでも20倍30倍は当たり前なのに。
消費電力も評価に入れるとどうなるんですかね?
あとはチップ内にうまく収まるサイズのタスクならもっと速いとか?
モデルケースを作ってみて、消費電力いれたならサーマルスロットリングの発動閾値も計算式に入れて悩んでみよう。
それはない。
なんだかんだSIMDはx86強いARMのSIMDは狭いし、GPUだと粗過ぎたり通信オーバーヘッドが辛いワークロードはまだまだ多いしなあ
逆にデータを右から左に流す系だとあまり差がない
機械学習のガチ勢はGPU使うからCPUなんか見向きもしないのでは
より多くのコメントがこの議論にあるかもしれませんが、JavaScriptが有効ではない環境を使用している場合、クラシックなコメントシステム(D1)に設定を変更する必要があります。
アレゲはアレゲ以上のなにものでもなさげ -- アレゲ研究家
怖いのが5年後 (スコア:0)
初めからハイエンドに設計されているAppleのチップだが
これがiPad同様廉価版として販売されるようになるとパワーバランスがくるってくる。
ギガスクールで廉価版のiPad最強同様
MacBookAirで5年後に搭載されることを考えると
オラわくわくすっぞ
Re: (スコア:0)
言うほど変わらんような。
x86系じゃないと困るものは5年ぐらいじゃ移行しないだろうし、ARMで良いなら5年と言わず移行は終わってそうだし。今のWindows-x86しかないアプリが、どこまでM1にも対応するかと言ったら、そこまで期待はできんし。
廉価品に積むM1でx86エミュレーションしてもCore i5ぐらいのパフォーマンス出ます、とかなら、そりゃまあバランス崩れるだろうけど、そこまでは行かんでしょ。
Re: (スコア:0)
>廉価品に積むM1でx86エミュレーションしてもCore i5ぐらいのパフォーマンス出ます
もう出てなかったっけ?
Re: (スコア:1)
>廉価品に積むM1でx86エミュレーションしてもCore i5ぐらいのパフォーマンス出ます
もう出てなかったっけ?
単純なベンチマークなら出るけど、所詮はRISCなのでi86用にきちんとチューニングされたコードだとパフォーマンス出ないし、スレッド処理でサクサク動いてみせるような部分は厳しい。
Re:怖いのが5年後 (スコア:0)
機械学習のようなCPUパワーが重要なソフトだと絶対性能でx86がいまだ有利
Re: (スコア:0)
既にIntelCPUに優位性はありませんよ。
来年もまた新しいCPUが出るでしょうし差は拡大していくことでしょう。
Appleの新しいM1チップ搭載MacBookは機械学習に関するビーストマシンだ【後編】(TensorFlowでの比較)
https://ainow.ai/2021/03/02/252780/ [ainow.ai]
記事はM1 今回は高速版のPro/MAX
Re: (スコア:0)
アップルのデモで紹介されていましたが、機械学習もCore i9に比べても3倍早いって紹介してましたけど
Re: (スコア:0)
まぁ、専用のアクセラレータのせてるからね。
3倍かどうかはわからないけど、早いよね。
Re: (スコア:0)
ハイエンドGPUに近いサイズのチップで、機械学習がi9の3倍だとイマイチなような。
ノートPCに乗ってるGPUでも20倍30倍は当たり前なのに。
Re: (スコア:0)
消費電力も評価に入れるとどうなるんですかね?
あとはチップ内にうまく収まるサイズのタスクならもっと速いとか?
Re: (スコア:0)
モデルケースを作ってみて、
消費電力いれたならサーマルスロットリングの発動閾値も計算式に入れて悩んでみよう。
Re: (スコア:0)
それはない。
Re: (スコア:0)
なんだかんだSIMDはx86強い
ARMのSIMDは狭いし、GPUだと粗過ぎたり通信オーバーヘッドが辛いワークロードはまだまだ多いしなあ
逆にデータを右から左に流す系だとあまり差がない
Re: (スコア:0)
機械学習のガチ勢はGPU使うからCPUなんか見向きもしないのでは