top of page

理系大学院生yamasakikakeruの記録
ホーム: ようこそ!
ABOUT ME
18年間北九州で育ち、九州工業大学情報工学部に入学。在学中に仲間20名を集め音楽団体PROJECT劔を発足。北九州のロックフェス制作に携わる。飯塚で大学生活を四年間過ごしたのち卒業。それと同時に、高等学校教諭一種免許状を取得。現在は北九州に戻り九州工業大学院生命体工学研究科に博士課程として進学中。
2020年、技術開発学生団体すぐ創る課を立ち上げ。
2022年、九州工業大学社会貢献賞として学長表彰を受ける。
学生団体 すぐ創る課 代表
学研都市若手の会 代表
合同会社共創テクノロジー 代表社員
高塔山ロックフェス実行委員会(2021年ディレクター)
講演会等の依頼はこちらからお願いします→yamasaki586868@gmail.com
![]() | ![]() | ![]() | ![]() |
|---|---|---|---|
![]() |
本ブログは2022年4月より休止しています
検索


tiny-yoloを使ったCPUでの物体検出|yamasakikakeruのブログ
keras-yolov3を使ってカメラ画像からリアルタイムで物体検出を行いました. https://github.com/ai-coodinator/keras_yolov3_camera こちらのコードを使用して一部改変します....
2021年1月26日


最新(2021)・Visuotactile Sensor: Seeing Through your Skin|yamasakikakeruのブログ
先日少しお話しした視触覚センサについて新しい機構のものが発表されました. 前回の視触覚センサについてはこちらの記事に書いてあります. https://yamasaki5868688.wixsite.com/kakeru-pages/post/%E5%85%89%E5%AD%...
2021年1月25日


デフォルトシェルをzshからfishへ|yamasakikakeruのブログ
九工大はUbuntuを使うことがかなり多いんですが,気になることがあります. シェルをbashで使っている. しかもデフォルトのまま. 使いづらい!! と考えていたら,いまだにzshを使っている自分はどうなんだと思い始め,この度お魚さんに変えました!!...
2020年9月30日


Smart Previewed Reality(九州大学 倉爪・安研究室)|yamasakikakeruのブログ
AR×Roboticsの研究事例を色々と調べていると,とても面白い研究をされている研究室があったので記録もかねてここに残したいと思います. 総合的な知識がないとここまでできないですが,空間そのものあらゆる情報をセンシングしてRobotと人を共存させる仕組みです....
2020年9月15日


光学式触覚センサ|yamasakikakeruのブログ
お久しぶりです.山崎です. 更新がずっと止まっていました.すみません. 1ヶ月ほどを使って,論文を1本仕立てていました. 近日,詳細を発表します.できるだけ多くの人に見てもらって,いい議論ができると良いです. あと,ホームページを英語対応させていました....
2020年8月24日


JDLA Deep Learning for GENERAL 2020#2(通称 G検定)に合格しました|yamasakikakeruのブログ
2020年7月4日に開催されたJDLA Deep Learning for GENERAL 2020#2(通称 G検定)に合格しました.G検定とは日本ディープラーニング協会が提供するディープラーニングの基礎知識を問う資格試験です.今回の合格率は約70%でした....
2020年7月16日


Zoom(Mac版)にOBSのVirtual Camが正式対応しました|yamasakikakeruのブログ
先日,ZoomにOBSのVirtual Camが正式に対応しました.今まで,Virtual Camを使うにはZoomの権限を変える必要があり,セキュリティー上の懸念からやりませんでした. ですが今回,正式にサポートされることになったので,画面共有などでOBSを映すことができ...
2020年7月1日


高校の情報Ⅱの教員研修用教科書が素晴らしい|yamasakikakeruのブログ
高校の情報の授業のイメージといえば,ワード,エクセルですが,情報Ⅱの教科書がなかなか充実してて良い内容です.レベルで言えば,学部4年生でわからない学生もいるんじゃないかっていうぐらいの問題です. この教科書から問題を作るとして一つ例を挙げるとすると,...
2020年6月27日


畳み込み変分オートエンコーダを用いた異常検知/リザバーコンピューティングをラズパイに実装するのは現実的ですか? |yamasakikakeruのブログ
最近は授業が始まりなかなか時間が取れずゆるりゆるりと行っていた開発ですがとりあえず目標の異常検知までいきました. 学習データを全部1にして異常検知を行いました.先日言っていた学習遅すぎる問題も,コードの一部のミスに気付いて訂正したのでそこそこの速度が出ます....
2020年6月20日


第26回画像センシングシンポジウムに参加しました.|yamasakikakeruのブログ
先日,第26回画像センシングシンポジウムに参加しました. その時にまとめたものをpdfで共有しますので,もし気になる方は見てみてください. 来年はぜひポスター発表に参加したい...
2020年6月15日


オンラインでの発表、授業の質を上げるニコニコ風弾幕コメントアプリComment Screen|yamasakakeruのブログ
学校の授業や,発表などでぜひ使ってほしい!!と思ったアプリがあったので紹介します.CommentScreenです. これを使うと,視聴している人から専用のウェブサイトを通してコメントを弾幕表示することができます. わかりにくいですが下の画像が実際に弾幕コメントを打った画像で...
2020年6月14日


可能性を感じたレザバーコンピューティング(Reservoir Computing)について簡単にまとめてみた.|yamasakikakeruのブログ
AI白書2020を読んでいたらリザバーコンピューティングといものを見つけて,可能性を感じたのでまとめてみます.
レザバーコンピューティング(Reservoir Computing)はRNN(再起型ニューラルネットワーク)の学習法の一つとして提案された手法の一つである.RNNはCN
2020年6月13日


Facebookによるプログラミング言語間の翻訳|yamasakikakeruのブログ
Facebookが教師なし学習の翻訳技術をプログラミング言語に活たしてプログラミング言語間の翻訳の研究成果を発表した.大規模システムであればあるほどプログラムの書き換えにはコストがかかる.だが,このシステムを使えばそのコストを大きく省くことができる.
2020年6月11日


CONNECTED PAPERSという論文検索サービスを使って論文の繋がりを可視化する.|yamasakikakeruのブログ
今日見つけたサービスなのですが,CONNECTED PAPERSというサービスが革新的だったので紹介します.
2020年6月10日


FANUC製品動画2020年ver.の公開
FANUC株式会社が製品動画2020年ver.をYouTubeにてアップロードしました. 自分が初めて説明会を聞きに行った時は,まだFIELD systemを今から本格的に始動します!!と言っていたのを覚えています. 自分の専門分野の画像センシングで一番面白かったのは,7:...
2020年6月7日


CVAEネットワークの出力
畳み込みVAEのネットワークを出力したので,載せてみます.
2020年6月4日


VimにGitのプラグインを入れた
Vimに新しくGitのプラグインvim-gitgutterとtpope/vim-fugitiveを入れたんですがなかなか良い. 差分をハイライトしてくれて,コマンドモードがらGitコマンドが使える.逆に今まで使ってなかった理由を知りたい,,,.これで少し仕事効率が上がった気...
2020年6月3日


畳み込み変分オートエンコーダを実装したが処理が重すぎる話
MNISTのデータセットを使って畳み込み変分オートエンコーダ(keras)を使って実装したのですが,処理が重過ぎてとてもじゃないけど実行できません. colab等を用いて実行し用途も思っているんですが,他のネットに転がっているコードよりも明らかに悪いので,コード自体もおかし...
2020年6月2日


スケッチから本物のような風景画像をリアルタイムで変換
GPU開発などをおこなっていて,最先端のAI研究を行ってるNVIDIAが去年に出した論文,Semantic Image Synthesis with Spatially-Adaptive Normalizationを読みました....
2020年5月24日


人間とAI,どっちが正しいのか.
画像認識の勉強とかをしてて思うんですが,AIも識別を間違うことが多々あるんですよ. 例えば,狼を犬と判断するみたいな. で,例えば,犬に非常に似た狼がいるとして,人間はその画像を見て,これは犬だと答えて.AIはそれを見て,これはこれは狼だと言う.そもそも,生き物の分類はDN...
2020年5月23日
お問い合わせフォーム
bottom of page





