とにかく記事を何でも雑記にしているのでタグが必要そうな今日このごろ。
どうもフルツチです。
私は大学で統計学やデータ周りをやっているのでビッグデータは領域内にあるというか、道の一つとして意識したことはあります。
ただ、データ分析は不況時はぶっ壊れ、戦略的にデータ活用でどうこうよりも、値下げしとけばいいだろ!の一撃でデータ分析が無力化されます。
また、好況時は見せかけの連関のようなもので、好景気だから良かっただけという可能性もあり、広くエンタープライズが利用するのにどうなの?という感じもあります。
つまり、コストに見合うんですか?という点です。
で、上の記事をもう一度貼りますが
海外記事でビッグデータは死んだという記事が密かに私界隈で話題です。
内容はざっくりと
- トップの大企業は1テラバイト以上データ蓄積する
- しかし、ほとんどはテラバイト以下のデータ、100GBさえ下回る
- =ほとんどの企業は定義された信頼のあるデータを手元で分析すればOK
という、ビッグデータが否定されるような内容ですw
これは、AIのようなデータの集合が必要なB2C企業は10テラバイト使うが、それを除けばビッグデータが不要であるという。
チャットGPTのようにデータへのアクセスが無限通りあり、ユーザーごとに利用用途が異なるならいいですが、ただデータを扱う企業にとっては定義された重要なデータを分析することに注力するべきで、実際にもうそうなっているよねというビッグデータ支援企業が涙目の内容。
AI銘柄が急上昇していく相場で、ビッグデータ関連の主要銘柄であるといえるブレインパッドの株価が冴えないのは上の理由があるでしょう。
チャットGPTのデータも雑多に見えますが、裏側でアフリカなどの貧困地域を使って、使えないデータを省く作業をしており、企業が真に求めるのは、これこそが難しいですが定義されている信頼されたデータの蓄積。
そんなにデータはいらないし、多くのデータは使われない。そうだよね?という内容でした。