chevron_left

メインカテゴリーを選択しなおす

cancel
研究開発 http://blog.livedoor.jp/tak_tak0/

シリコンバレーベンチャーみたいに深い科学技術を事業化したいです。

「深い技術」をやっています

TAK
フォロー
住所
文京区
出身
未設定
ブログ村参加

2007/08/27

TAKさんの人気ランキング

  • IN
  • OUT
  • PV
今日 06/01 05/31 05/30 05/29 05/28 05/27 全参加数
総合ランキング(IN) 圏外 圏外 圏外 圏外 圏外 圏外 圏外 1,035,060サイト
INポイント 0 0 0 0 0 0 0 0/週
OUTポイント 0 0 0 0 0 0 0 0/週
PVポイント 0 0 0 0 0 0 0 0/週
ベンチャーブログ 圏外 圏外 圏外 圏外 圏外 圏外 圏外 4,200サイト
科学ブログ 圏外 圏外 圏外 圏外 圏外 圏外 圏外 2,690サイト
IT技術ブログ 圏外 圏外 圏外 圏外 圏外 圏外 圏外 9,786サイト
※ランキング順位が「圏外」と表示される時は?
今日 06/01 05/31 05/30 05/29 05/28 05/27 全参加数
総合ランキング(OUT) 圏外 圏外 圏外 圏外 圏外 圏外 圏外 1,035,060サイト
INポイント 0 0 0 0 0 0 0 0/週
OUTポイント 0 0 0 0 0 0 0 0/週
PVポイント 0 0 0 0 0 0 0 0/週
ベンチャーブログ 圏外 圏外 圏外 圏外 圏外 圏外 圏外 4,200サイト
科学ブログ 圏外 圏外 圏外 圏外 圏外 圏外 圏外 2,690サイト
IT技術ブログ 圏外 圏外 圏外 圏外 圏外 圏外 圏外 9,786サイト
※ランキング順位が「圏外」と表示される時は?
今日 06/01 05/31 05/30 05/29 05/28 05/27 全参加数
総合ランキング(PV) 圏外 圏外 圏外 圏外 圏外 圏外 圏外 1,035,060サイト
INポイント 0 0 0 0 0 0 0 0/週
OUTポイント 0 0 0 0 0 0 0 0/週
PVポイント 0 0 0 0 0 0 0 0/週
ベンチャーブログ 圏外 圏外 圏外 圏外 圏外 圏外 圏外 4,200サイト
科学ブログ 圏外 圏外 圏外 圏外 圏外 圏外 圏外 2,690サイト
IT技術ブログ 圏外 圏外 圏外 圏外 圏外 圏外 圏外 9,786サイト
※ランキング順位が「圏外」と表示される時は?
  • カスケード拡散モデルによる全曲階層的シンボリック音楽生成

    カスケード拡散モデルによる全曲階層的シンボリック音楽生成

    ``Whole-Song Hierarchical Generation of Symbolic Music Using Cascaded Diffusion Models,'' Ziyu Wang, Lejun Min, Gus Xia, https://t.co/KjXwq12nG2— arXiv Sound (@ArxivSound) May 17, 2024 これも楽譜を画像と見なして階層的に生成する研究ですが、言語モデル型

  • 大規模言語モデルに困難な推論を克服する償却ベイズ推論

    大規模言語モデルに困難な推論を克服する償却ベイズ推論

    LLMでChain-of-Thoughtは潜在トークン列を事後分布列から生成するタスクとみなせる。LLMのファインチューニング時にGFlowNetsを使って潜在変数を順に生成するように学習。推論の途中経過を潜在変数とみなすアプローチは興味深い(以前もRAGであった https://t.co/3pf3gA4eDO

  • 大規模言語モデルの実力を再評価 学習データに潜む過剰適合

    大規模言語モデルの実力を再評価 学習データに潜む過剰適合

    実は最近のLLMは,学習中に評価用のベンチマークと酷似したデータを(意図的にせよ非意図的にせよ)カンニング/暗記しており,それで評価スコアが高くなっていたのではないか問題https://t.co/r70kcwMv6q完全新規ベンチマーク(GSM1k)を作り評価すると,見事にほとんどのLLMの性能

  • 大規模言語モデルが持ち得る創発能力の幻想

    大規模言語モデルが持ち得る創発能力の幻想

    『最新の研究により、大規模言語モデル(LLM)の性能が突然飛躍することは驚きでも予測不能でもなく、実際には人工知能(AI)の性能を測る方法に関係していることが示された。』AIの「創発性」は幻影に過ぎない ── 大規模言語モデルの新たな測定で判明https://t.co/5uxLcwA

  • 楽曲再生回数と歌詞の因子分析による影響力の分析

    楽曲再生回数と歌詞の因子分析による影響力の分析

    データは 最近の人気曲で歌詞の分析と比較 と同じで、2016/1 ~ 2024/4 辺りの647曲です。再生回数と、歌詞に含まれる単語を取得し、平均値を算出します。再生回数の全体平均が 69585.55631 なので、単語が人気に影響を与えるかどうかは、平均値に対しての上下です。.

  • 100kドルでLlama2より高精度を達成:JetMoE

    100kドルでLlama2より高精度を達成:JetMoE

    「Llama 2-7B」の1万分の1以下の学習コストなのにLlama 2-7Bを上回る大規模言語モデル「JetMoE-8B」が登場https://t.co/rn3VjsWaB8— GIGAZINE(ギガジン) (@gigazine) April 5, 2024 なぜ学習コストを減らす事が出来るのか、どのようにしたのかに、興味持つ人が全然いな

  • LLMの流暢な作り話を人間が信用する理由

    LLMの流暢な作り話を人間が信用する理由

    2017年頃に応用数理学会で「AIの説明可能性はAIじゃなくて人間側の問題」って趣旨のコメントをした記憶があるんだけど,ChatGPTで一段社会のステージが変わった(AIの説明を人間が受け入れるようになった)ように思う.顧客が本当に必要だったのは精度(説明)じゃなくて流暢

  • 言語モデルをggufファイルに変換してllamafileに読み込ませる

    言語モデルをggufファイルに変換してllamafileに読み込ませる

    大規模言語モデルを単一ファイルで配布・実行する「llamafile」のバージョン0.7で処理能力が最大10倍高速化https://t.co/OL16t4BwHa— GIGAZINE(ギガジン) (@gigazine) April 2, 2024 https://github.com/Mozilla-Ocho/llamafileUnfortunately, Windows users cannot make

  • Generative Classifierの興味深い特性

    Generative Classifierの興味深い特性

    従来の画像認識は識別モデルだが、生成モデルが進展し生成モデルで高精度で認識することも現実的に可能となった。識別モデルがテキスチャを見て認識するのに対し、生成モデルによる認識は人と同様に形状を重視して識別し、人と間違え方が似ていることが示された。https://t.c

  • 最近の人気曲で歌詞の分析と比較

    最近の人気曲で歌詞の分析と比較

    近年の音楽業界では、曲の内容、傾向が以前と比較して変化が起きてると考えられてると思います。...これは、z世代の選好の質的な変化とか言うよりはむしろ、ストリーミングサービス普及によって、全体的な変化が生じてる、のでは...?J-pop歌詞の分析と比較 の時と同じよ

  • コンピュータービジョンで自動化する費用対効果が高いタスクは何か? AI Exposure

    コンピュータービジョンで自動化する費用対効果が高いタスクは何か? AI Exposure

    RT人間の労働力の方が人工知能より安価~ MITの研究、雇用機会の大部分は人工知能にまだ奪われないと結論https://t.co/0ScCAUtu85— 森山和道/ライター、書評屋 (@kmoriyama) April 12, 2024 この研究はどの論文なのかと思ったんですが、どうもManagement Science誌に投

  • Proxyによる言語モデルチューニング

    Proxyによる言語モデルチューニング

    LLMを特定目的にFine-tuningせずとも、より小さなLLMとそのFine?tuning版の出力の差分を、元のLLMの出力(logits)に加えることで同等の効果を得られるという話。おもろ? https://t.co/j89SqvPOc5— Shohei Hido 比戸将平 (@sla) January 19, 2024 Tuning Language Models

  • 言語モデルへのMany shot 倫理解除攻撃

    言語モデルへのMany shot 倫理解除攻撃

    大量の質問をぶつけて最後の最後に問題のある質問をするとAIの倫理観が壊れるという脆弱性を突いた攻撃手法「メニーショット・ジェイルブレイキング」が発見されるhttps://t.co/BRV3Y72jdX— GIGAZINE(ギガジン) (@gigazine) April 3, 2024 大量の質問ではないですね。大

  • 消費者向けGPUで機能する高速大規模言語モデルPowerInferの実装

    消費者向けGPUで機能する高速大規模言語モデルPowerInferの実装

    これすごい。必要なところだけGPUにして残りはCPUで推論させて40Bモデルを4090(24G)で動作。llama.cppの11倍高速https://t.co/WXy3xeI424— shi3z (@shi3z) December 24, 2023 PowerInferは、Llama2に比べたらまだ早かったですが...また、出力があんまり良くないような気

  • 実稼働言語モデルへの部分窃取手法

    実稼働言語モデルへの部分窃取手法

    Googleの研究者たちはAPI経由でOpenAIのモデルにおける隠れ次元数を特定できることを示し、OpenAIがそれを受け対策を施したことを論文で報告しました。モデルのパラメータサイズや計算効率を見積もることが可能だった事実を意味しています。"Stealing Part of a Production L

  • GenAIによるAIワームの登場:アプリケーションを標的とするゼロクリックワーム

    GenAIによるAIワームの登場:アプリケーションを標的とするゼロクリックワーム

    研究者たちは「敵対的自己複製プロンプト」と呼ばれる手法で生成AIワームを作成した。https://t.co/mzheaYLUPH— WIRED.jp (@wired_jp) March 12, 2024 システムがメッセージ(プロンプト)の保存や、RAG等を実行しなければ、ワームは機能しません。そう思ったのですが、そ

  • 自己教師あり学習のためのノイズ除去拡散モデルの分解

    自己教師あり学習のためのノイズ除去拡散モデルの分解

    拡散モデルが表現学習出来る理由を学習要素を分解し調査した結果、トーカナイザで低次元潜在空間に射影し、ノイズを加えデノイジングを学習する事"のみ"重要だった(画素空間ではダメ)。射影はPCAですら良い。潜在空間でデノイジングするl-DAEも同性能を達成出来るhttps://t

  • 状態空間言語モデルmambaの独自データで学習方法

    状態空間言語モデルmambaの独自データで学習方法

    選択的状態空間を使用した線形時間系列モデリングSSM の実際の実装方法と、学習方法です。git clone https://github.com/state-spaces/mambacd mamba実行のためにはこうするだけではなく、pip install causal-conv1d>=1.1.0,こうする必要がありました。import to

  • 文字起こしReazonSpeecの実装方法

    文字起こしReazonSpeecの実装方法

    文字起こしAIの新顔「ReazonSpeech」、テレビで鍛えた音声認識の精度を試したspeech,rate = librosa.load("audio.mp3", sr=44100)result = reazonspeech(speech)result[0][0]書いてある通りの実行方法で上手く行き、最初はエラーは何も生じませんでした。実行にはrea

  • 選択的状態空間を使用した線形時間系列モデリングSSM

    選択的状態空間を使用した線形時間系列モデリングSSM

    MambaはS4に入力を選択的に記憶/忘却をできるよう重み、間隔幅を入力に応じて変える仕組み(S6)を導入。高速メモリ内で内部状態を展開し、Parallel Scanを利用。SSMは性能がTransformerに匹敵しつつあり効率的なため今後多くの問題でTransformerに置き換わる可能性が高い ht

ブログリーダー」を活用して、TAKさんをフォローしませんか?

ハンドル名
TAKさん
ブログタイトル
研究開発
フォロー
研究開発

にほんブログ村 カテゴリー一覧

商用