ikuty さん プロフィール

  •  
ikutyさん: ikuty.com
ハンドル名ikuty さん
ブログタイトルikuty.com
ブログURLhttps://ikuty.com
サイト紹介文Web系技術ネタ、Fitbit Charge HR を使ったLifeHack。など
自由文Web系エンジニアがWeb系技術ネタを書きます。
AWS、Azure、ConoHa、WordPress、Kusanagi、無料SSL、
さくらVPS。フロントエンドからサーバサイド、インフラまで。

Fitbit Charge HR と Withthings 体組成計を使って 肉体改造中。
肉体改造に関する諸々を書いていきます。

よろしくお願いします。
参加カテゴリー
更新頻度(1年)情報提供37回 / 365日(平均0.7回/週) - 参加 2016/07/01 23:54

ikuty さんのブログ記事

  • 24時間ジムに入会した
  • 2年前は健康を取り戻すことを最優先に肉体改造に励んだ。それはそれで有意義で、ちゃんと鍛えれば健康になれるんだ、という自信がついた。健康になると、自分のアイデンティティを求めたくなった。健康を取り戻すための努力をすっかり忘れて仕事っぽいことに頭を切り替えた。その結果、見事に体がついていかなかった。もう健康と仕事を両立することはできないのか。これがプログラマ35歳定年説なのか……確かに年齢を重ねるに連れ [続きを読む]
  • ikuty.com作り直し計画中
  • このサイトを作り始めた2年前は何を記事にしようか、とか考えることもなく、ただ自分の理解のために得た知識をアウトプットする場としていたんだっけな。kusanagiが速いらしい、と聞いて、わざわざメモリが潤沢なインスタンス借りてkusanagiの上でWordPressを展開して一人で盛り上がってたのが懐かしい。nginxとphp7とサーバキャッシュがあれば1ランク下のインスタンスで行けるようなのと、ギリギリのスペックで裁く楽しみが欲しい [続きを読む]
  • Courseraの機械学習コース
  • 新しいことを学びたくなった。学びたくなったのか、学ばなければ生きていけないのか、それは置いておいて。猫も杓子も人工知能、というバブルはあと数年で過ぎ去るという見解が有識者の方からちらほら。流行りの人工知能ってつければお金がつく、という確信犯以外にも、純粋に前時代的な「IF ELSEの集合」の限界が世間に認知され始めるというのが根拠らしい。その層とは別に、深層学習、強化学習で食える人がいる。今は全くない深 [続きを読む]
  • nginx環境でBASIC認証のために.htpasswdファイルを作成する小ネタ
  • Apacheのモジュールを入れて.htpasswdを作る大げさな方法htpasswdコマンドが入っていないからって、Apacheのモジュールを入れてまで欲しくない。以下の通り、無理やりApacheのモジュールを入れてhtpasswdを叩くことも出来てしまう。$ sudo apt-get install apache2-utils$ htpasswd -c -b /etc/httpd/conf/.htpasswd ユーザ名 パスワード opensslコマンドだけで作る方法.htpasswdファイルを作るだけのために入れるのは無駄だと思う [続きを読む]
  • nginx環境でBASIC認証のために.htpasswdファイルを作成する小ネタ
  • Apacheのモジュールを入れて.htpasswdを作る大げさな方法htpasswdコマンドが入っていないからって、Apacheのモジュールを入れてまで欲しくない。以下の通り、無理やりApacheのモジュールを入れてhtpasswdを叩くことも出来てしまう。$ sudo apt-get install apache2-utils$ htpasswd -c -b /etc/httpd/conf/.htpasswd ユーザ名 パスワード opensslコマンドだけで作る方法.htpasswdファイルを作るだけのために入れるのは無駄だと思う [続きを読む]
  • ロボットは人間の言葉を理解できるのか
  • あえてキャッチーなタイトルにしてみました。できねーよ(wAIバブルな2017年、予算も人も付くような真面目な題材になっていることに気づきます。要素技術を積み重ねていくという工学的なプロセスを経たことがあるのであれば、突如として「人間の言葉を理解する」という事象が出現することに気分が悪くなると思うのだが、この日本の経済サイクルの中で生きていく以上、付き合わざるを得ないなと思う。かの昔、3年間という短い期間で [続きを読む]
  • ヨーグルト製造
  • 少し前に甘酒メーカーを買ったのだけども、甘酒にちょっと飽きたので新しいことをしたいと思ったので、ヨーグルトを作ることにした。発酵業界の奥の深さは異常です。発酵という調理法は何より手間がかからないし、割と手間に対してリターンが大きい調理法な気がします。ヨーグルトの作り方は基本的に以下の通り。発酵装置に1000mlの牛乳を入れる。その中に種となる市販のヨーグルトを入れる。発酵装置にて約7時間、摂氏42度を維持 [続きを読む]
  • 背景画像の縦横比を維持したままボックスをリサイズ
  • レスポンシブなCSSを書こうとすると背景画像の縦横比を維持しながらボックスをリサイズしたいケースが増える。divの中にimgを置いてどうにかしようとするとかなり難しい。divの背景に画像を指定してやれば、divの縦横比と画像の縦横比が一つになるのでわかりやすい。。忘備録的な感じでCSSの書き方をまとめてみた。前提条件背景に画像を表示したdivをリサイズするときに画像の縦横比を維持したい。448×314の画像をリサイズするも [続きを読む]
  • 非マルチサイトでユーザ情報を共有する
  • 概要ネットワーク機能経由のマルチサイトでなく、サブディレクトリ型マルチサイトでもなく、単純にサブディレクトリに複数のWordPressインスタンスを並列するケースで、複数のWordPressインスタンスから一つのユーザ情報を共有する方法について書く。wp_users,wp_usermetaの共有このあたりを参照すると書いてある。要は、インスタンスの数だけ作られるwp_users、wp_usermetaを使わず、一つを共有すれば良い。そのためにはwp-config [続きを読む]
  • 茄子の味噌炒め
  • 前回の更新からだいぶたってしまった。CTAエリアに貼ってある標語が虚しくみえる。この間いろいろなことがあり、仕事でWordPressのテーマを作るようになった。VPSを借りて短いワードの独自ドメイン使ってまでWordPressを運用しているので、偶然繋がった人生の波に乗っかれればな、みたいなことを考えている。こんなプラグインあったら面白いだろうな、というのを形にしていきたい。技術っぽいネタを書いていたのだけど、あまりにも [続きを読む]
  • コサイン類似度 Cosine Simirality
  • BoW化した文章同士の類似度を求める一番メジャーなやり方。内積の定義を式変形しただけ。$$begin
    {eqnarray}cos(vec{q},vec{d}) &=& frac{vec{q}cdot vec{d}}{|vec{q}| cdot |vec{d}|} &=& frac{vec{q}}{|vec{q}|} c
    dot frac{vec{d}}{|vec{d}|} &=& frac{sum_{i=1}^{|V|}q_i d_i}{sqrt{sum_{i=1}^{|V|}q_i^2} cdot sqrt{sum_{i=1}^{|
    V|}d_i^2}}end{eqnarray}$$BoWが正規化された単位ベク [続きを読む]
  • コサイン類似度 Cosine Simirality
  • BoW化した文章同士の類似度を求める一番メジャーなやり方。内積の定義を式変形しただけ。$$begin
    {eqnarray}cos(vec{q},vec{d}) &=& frac{vec{q}cdot vec{d}}{|vec{q}| cdot |vec{d}|} &=& frac{vec{q}}{|vec{q}|} c
    dot frac{vec{d}}{|vec{d}|} &=& frac{sum_{i=1}^{|V|}q_i d_i}{sqrt{sum_{i=1}^{|V|}q_i^2} cdot sqrt{sum_{i=1}^{|
    V|}d_i^2}}end{eqnarray}$$BoWが正規化された単位ベク [続きを読む]
  • 分野限定型ルーチン文章自動生成装置
  • 本屋でニューラルネットワークを使った文章自動生成をネタにした本を立ち読みして失望した今日このごろです。本1冊書いて、結びで無茶苦茶な文章の出力例を出しておいてよく金取れるな、と思うよ。リカレントニューラルネットワークを使った自然言語処理は興味深いですがね。完全自動生成は永遠のブルーオーシャンだと思いました。唐突ですが分野限定型ルーチン文章自動生成方法について検討をしてみた。といっても、株式情報のよ [続きを読む]
  • 分野限定型ルーチン文章自動生成装置
  • 本屋でニューラルネットワークを使った文章自動生成をネタにした本を立ち読みして失望した今日このごろです。本1冊書いて、結びで無茶苦茶な文章の出力例を出しておいてよく金取れるな、と思うよ。リカレントニューラルネットワークを使った自然言語処理は興味深いですがね。完全自動生成は永遠のブルーオーシャンだと思いました。唐突ですが分野限定型ルーチン文章自動生成方法について検討をしてみた。といっても、株式情報のよ [続きを読む]
  • ロジスティック回帰とROC曲線
  • ロジスティック回帰2値の特徴量tを持つトレーニングデータ(x,y,t)を正解/不正解に分類する問題を考えたとき、最尤推定によりモデルf(x,y)を決めるのがロジスティック回帰。モデルf(x,y)がトレーニングデータ(x,y,t)を正解と分類する確率P(x,y)を立てて、P(x,y)の最大化問題を解くことでf(x,y)のパラメタを決定する。その際、P(x,y)はロジスティック関数を使って以下の通り表される。$$begin{eqnarray}z_n &=& sigma(w^Tphi_n) P(x, [続きを読む]
  • ロジスティック回帰とROC曲線
  • ロジスティック回帰2値の特徴量tを持つトレーニングデータ(x,y,t)を正解/不正解に分類する問題を考えたとき、最尤推定によりモデルf(x,y)を決めるのがロジスティック回帰。モデルf(x,y)がトレーニングデータ(x,y,t)を正解と分類する確率P(x,y)を立てて、P(x,y)の最大化問題を解くことでf(x,y)のパラメタを決定する。その際、P(x,y)はロジスティック関数を使って以下の通り表される。$$begin{eqnarray}z_n &=& sigma(w^Tphi_n) P(x, [続きを読む]
  • ロジスティック回帰 教師有り確率的分類モデル
  • 2種類の値tを持つトレーニングデータ{(xn,yn,tn)}を正解/不正解に分類するパラメトリックモデルを立てて、パラメトリックモデルと不正解に分類されるトレーニングデータの距離E(w)が最小になるwを決定しモデルを作成するのがパーセプトロンであった。E(w)においてトレーニングデータ(xn,tt)を定数として使用することでE(w)をwから決まる関数とし、wの決定をE(w)の最小化問題に帰着させる考え方は最小二乗法と同様であった。パーセ [続きを読む]
  • ロジスティック回帰 教師有り確率的分類モデル
  • 2種類の値tを持つトレーニングデータ{(xn,yn,tn)}を正解/不正解に分類するパラメトリックモデルを立てて、パラメトリックモデルと不正解に分類されるトレーニングデータの距離E(w)が最小になるwを決定しモデルを作成するのがパーセプトロンであった。E(w)においてトレーニングデータ(xn,tt)を定数として使用することでE(w)をwから決まる関数とし、wの決定をE(w)の最小化問題に帰着させる考え方は最小二乗法と同様であった。パーセ [続きを読む]
  • パーセプトロン
  • (x,y)平面上のサンプルデータ(xn,yn)が、(x,y)平面を分割する1次多項式f(x,y)=w0+w1x+w2y を基準に f(xn,yn)>0 であれば正解、f(xn,yn)n,yn,tn)を与えて多項式の係数wを求める分類アルゴリズムをパーセプトロンという。ITエンジニアのための機械学習理論入門posted with amazlet at 17.03.10中井 悦司 技術評論社 売り上げランキング: 8,130Amazon.co.jpで詳細を見るパラメトリックモデルの決定(x,y)平面を分割する1次多項式f(x,y) [続きを読む]
  • パーセプトロン
  • (x,y)平面上のサンプルデータ(xn,yn)が、(x,y)平面を分割する1次多項式f(x,y)=w0+w1x+w2y を基準に f(xn,yn)>0 であれば正解、f(xn,yn)n,yn,tn)を与えて多項式の係数wを求める分類アルゴリズムをパーセプトロンという。ITエンジニアのための機械学習理論入門posted with amazlet at 17.03.10中井 悦司 技術評論社 売り上げランキング: 8,130Amazon.co.jpで詳細を見るパラメトリックモデルの決定(x,y)平面を分割する1次多項式f(x,y) [続きを読む]
  • 最尤推定 確率分布をもったトレーニングデータの学習
  • 前回までのエントリでトレーニングデータからパラメトリック曲線とそのパラメタの導出方法を書いた。観測点(xn,tn)の背景にあるパラメトリック曲線を求めるパラメタの評価式を決定する評価式の値が最良になるようにパラメタを決定する実際にはトレーニングデータはパラメトリック曲線から発生したデータではなく、パラメトリック曲線はあくまでトレーニングデータとの最小二乗誤差が最小になる曲線に過ぎない。未知のサンプルデー [続きを読む]
  • 最尤推定 確率分布をもったトレーニングデータの学習
  • 前回までのエントリでトレーニングデータからパラメトリック曲線とそのパラメタの導出方法を書いた。観測点(xn,tn)の背景にあるパラメトリック曲線を求めるパラメタの評価式を決定する評価式の値が最良になるようにパラメタを決定する実際にはトレーニングデータはパラメトリック曲線から発生したデータではなく、パラメトリック曲線はあくまでトレーニングデータとの最小二乗誤差が最小になる曲線に過ぎない。未知のサンプルデー [続きを読む]
  • 最小二乗法 パラメトリックモデルのパラメタ決定と過学習
  • 一つ前のエントリ”トレーニングデータからパラメトリックモデルを決定してみた“では、トレーニングデータからM次多項式曲線を求めてみた。このエントリではMの候補の中から一つを見つけ出す方法を書いてみる。Mを大きくすればするほどトレーニングデータを多く通過することになり、トレーニングデータの数Nを境に、ついにはトレーニングデータを再現する多項式曲線が出来上がる。Mを過剰に大きくすると未知のサンプルデータとの [続きを読む]
  • 最小二乗法 パラメトリックモデルのパラメタ決定と過学習
  • 一つ前のエントリ”トレーニングデータからパラメトリックモデルを決定してみた“では、トレーニングデータからM次多項式曲線を求めてみた。このエントリではMの候補の中から一つを見つけ出す方法を書いてみる。Mを大きくすればするほどトレーニングデータを多く通過することになり、トレーニングデータの数Nを境に、ついにはトレーニングデータを再現する多項式曲線が出来上がる。Mを過剰に大きくすると未知のサンプルデータとの [続きを読む]