GNU Rの将来像
[twitter:@dekosuke] 経由で [twitter:@tyatsuta] さんのtweetから教わったやや古い論文だが
- http://www.stat.auckland.ac.nz/~ihaka/?Papers_and_Talks Ihaka and Lang, Back to the Future: Lisp as a Base for a Statistical Computhing System, Invited Paper, Compstat 2008
読み始めたときはセカンドシステム症候群という言葉を強烈に想起したが,どうもそういう次元の話ではないなぁ.CRANにある大量の既存資産とか最近流行りの他言語とか色々考慮した上で,意図的にquantum leapを話題にしてるのか.ずいぶん野心的な話だ.
ただベクタを丸ごと値渡しする件はcopy on writeとか「ハンドル」に対するCUDAやらHadoop呼び出し(だいぶ異質なセマンティクスになるが)でどうにかなる気がする.属性アクセスとか型についてはJavaScript, Python, Erlang等のLL(?)陣営がworse-is-better路線で様々な技法を取り入れてるから真似すればいいんじゃないかな.オプショナルな型宣言で double[]
と付けたら速くなるよ! とか言っても現実には NA
混ざることもあるしなー.この辺をOcamlの option
型,Haskellの Maybe
モナドにせず「柔軟」に取扱ってきたのが人気の理由だったはずで.PCでどうにかなるサイズのデータセットはLL陣営の技法を真似てちょっとずつ高速化,一方Big dataはミドルウェアのバインディングに任せるしか無いだろ.
... うーん私はどうも保守的でいかんですなぁ.上記論文の論旨と真っ向から衝突する...