• このアプリで音楽を聞かない手はありません!
    普通に音楽を聞いている裏側では、仮想通貨マイニングが走っています。
    その収益は音楽の発展のため使われるだけでなく、
    付属ARカメラで、「肉盛」できて、インスタばえする最高の飯テロ素材の出来上がり
    プレイリストの音楽次第で、「肉盛」の内容は変わります!
    これを使えばタダで音楽も聴けるので、お気軽に試してみてください!
    ある程度マイニング完了して、盛れる状態になると、近所の焼肉屋のクーポンも届きます!
    熱盛できるコインは直接Paypalでも購入可能なので、音楽聞かずに熱盛・肉盛が楽しめます

    追記)
    最優秀賞受賞ありがとうございます!

    音源提供終了のため一旦公開も終了しました。
    ありがとうございました!
    ・AWA API
    曲情報・音源・画像・プレイリスト同期
    ・CoinhiveAPI
    仮想通貨マイニング情報取得
    ・CoinhiveJavaScriptMiner
    クライアント側仮想通貨マイニング実行
    ・IBM watson Visual Recognition
    ・Microsoft Cognitive Service
    画像解析・肉判断
    ・Hotpepper Webservice API
    コインがたまった人に近所の焼肉屋クーポンとどくよ
    ・Paypal API
    コイン直接購入用

    アーティスト熱盛ARアプリ~肉厚バージョン~

  • **映画「ハリーポッター」内でプレイされる大人気スポーツ「クィディッチ」、僕らはどうしても"あれ"をプレイしたかった!**

    ext-broomはextension(拡張する) broom(ほうき)を意味しており、身体能力を拡張するほうき型モビリティと、自律型ドローンを組み合わせた、「クィディッチ」をプレイするためのシステムです。インラインスケート又は専用の補助輪を装着し、ほうきに跨れば自由自在に走り回ることが出来ます。

    「クィディッチ」に欠かせない魔法生物「スニッチ」役には、前面&底面2つのカメラを搭載した小型自律遁走ドローンを製作しました。前面カメラではリアルタイム物体認識ライブラリYOLOを用いた人認識を走らせることで、自律的に人から逃げることが出来ます。同時に底面カメラで競技領域を自動検出することで、指定領域内を縦横無尽に逃げ回ります。
    もちろんHMDを装着し、手動操縦で「スニッチ」になりきってプレイすることもできます。

    これら二つを組み合わせることで、あの「クィディッチ」を誰でもプレイすることが出来ます。2020年オリンピックパラリンピック会場の横の公園で、「クィディッチ」世界大会を開催することを目指しています。
    **ほうき型モビリティ**
    -Arduino
    -インホイールモータ(500W)
    -オープンソースモータドライバVESC
    -Bluetoorh Module(遠隔操作用)
    -呪文認識(組込みRECAIUSでハリーポッター呪文に対応)
    -感圧センサ(アクセル/ブレーキ)
    -Lipoバッテリー
    -豊田市産ヒノキ間伐材使用の外装
    **小型自律遁走ドローン**
    -Parrot Manbo(又はTiny Whoop)
    -小型無線カメラ
    -YOLO: Real-Time Object Detection

    魔法の世界を"実装"する ext-broom

  • # Ninja Controller
    chromeのプラグインとして開発
    手の動きや忍者の印を認識して
    ブラウザのスクロールや戻る、進むなどの動作を行うことができる

    また、印に特定のページを登録することで
    ブックマークのように使うことができる
    フロント
    js
    サーバ
    opencv

    Ninja Controller

  • # Ninja LoQ

    ## 構想
    数百年前に忍者が使っていたとされる、術を使う際に結ぶ印。
    この印を現代の家電を扱う際のトリガーにしようというのがシステムの
    アイディア

    ## 印とは
    忍者が扱う、手を結びあわせて何かの意味を表す
    暗号などに使われていたとされる
    何種類か存在し、印の組み合わせで様々な情報を表すことが可能

    ## 動作の流れ
    カメラから印の形を読み取りwebsocketで画像認識サーバとリアルタイムに通信を行い
    結果から、対象の家電やデバイスに命令を送り動作させる
    ## 操作するデバイス側:
    - raspberry pi

    ## サーバ
    - python
    - opencv
    - websocket サーバ

    Ninja LoQ

  • 使い方は簡単!
    ユーザはその場にいるだけです。特に何かする必要はありません。Emmerがユーザを識別し、ユーザにあった情報を教えてくれます。

    EMMERは,機械学習を用いてユーザーを認識し,ユーザに合わせて日々の欲しい情報を音声で届ける置物です。 例えば, 洗面台にこのデバイスを置くだけで,毎日の朝,ハミガキや顔を洗う際には,「今日の天気予報」やその人に合わせた「今日のニュース」、「電車の遅延情報」を自動で抽出し,お届けします. 例えば家族で登録していると,お父さんには「経済のニュース」と「山手線の遅延情報」を、息子には「スポーツのニュース」となどが流れます。

    背景(製品開発のきっかけ、課題等)
    私たちFUNKeyのテーマは,「Tech」をごく身近に感じることができるプロダクトの作成です. 日々の生活を送る中で,「こうあってほしい」や「こうなると便利だ」といった内容を話し合い,「日々の生活に必要な情報をお届けする」プロダクトを開発することを決定しました. 生活する中で,朝は時間がなくバタバタする日々を過ごす中で,朝当たり前のようにすることに時間があればしたいようなことを組み合わせることはできないか。ということでEMMERが誕生しました。  

    製品説明(具体的な製品の説明)
    使用の流れ
    1. ユーザ登録
    ユーザの基本情報(googleアカウント,自分の顔写真,興味のあるニュース記事)を作成したアプリに登録します.

    2. デバイスを好きなところに置く
    デバイスが,ユーザの顔を機械学習により識別し,その人に合った情報を音声で届けます.日頃家の中などで必ず向かう場所(洗面台やトイレ)などに置きます.

    プロダクトの詳細説明
    朝のトイレの時間や洗顔や歯磨きなど少しの時間に,デバイスのカメラからユーザの顔を識別し機械学習により誰の顔かを判別し,ユーザにあった情報を音声を用いて提供します.例えば野球に興味のある人なら野球関連のニュースを、朝電車を利用している人ならその電車の遅延情報を提供します。

    1. ユーザの識別方法
    ユーザに合わせた情報を提供するために,デバイスに搭載されているカメラに映る映像を機械学習を用いることによって,ユーザの識別を行います.カメラ画像から顔を認識すると,ユーザ判別学習器に判別処理をかけ,登録されているユーザーが判明されると,データーベースからユーザの届けてほしい情報を取得します.

    2. ユーザへの情報提供
    ユーザー登録時に入力した情報を基に,届ける情報が変化します. 登録時には,Googleアカウント情報や,興味のあるニュースを選びます. 登録は,複数人可能でEMMER1台で複数の人に対して別々の情報を届けることが可能です. 一つの家に一台で家族全員分それぞれに合わせて情報提供が可能です.

    特長
    1. スマホで天気や遅延情報などを調べる手間いらず
    毎日のちょっとした必要な情報(今日の天気やニュース)をユーザが通れば,自発的に音声でお伝えします. スマホでの情報確認が不要!,支度や準備の合間に知ることができます.

    2. 据え置きデバイスなので,どんな場所にも置くことが可能です.
    家族が毎日利用するとこに置くことで,普段何も考えずにしていることに+αの情報が生まれます.「洗面台」など

    3. お届けする情報は,ユーザーに合わせて変化します.
    本デバイスは一台に対して,ユーザ毎に合わせたサービスを提供します. あなたには,スポーツに関するニュースを,お父さんには経済に関するニュースをなどユーザーに合わせた情報を自動で抽出し,音声で伝えます.

    解決出来ること
    「雨の日に傘を忘れる」,「明日のスケジュールを確認し損ねる」,「電車の遅延で会社に遅れなくなる」,「忙しい朝の時間を有効に使える」 といった日々の小さな問題を解決します.

    今後の展望
    顔を毎日記録しているので、毎日の顔の変化がわかるため「髭を剃りましょう」、「髪を切りましょう」という推薦もできるようになる。また、離れて暮らしてる家族に対して顔色などを見て「最近おじいちゃんの体調が悪そうです」、ハミガキする頻度を見て「認知症の疑いがあります」などというような情報も提供できる。

    注力したこと(こだわり等)
     ・デバイスの見た目
     ・ユーザーにあった情報の提供を実施するため,顔認識(機械学習)によって,ユーザーを識別
     ・APIを利用した文字列解析によるレコメンド
    システム構成の図は画像の2~4枚目に記載しましたが、カメラで顔の写真を撮り、その写真をFace++というAPIを通して誰の顔を判別します。その後判別されたユーザに必要な情報をニュースRSSや天気APIや遅延情報APIやGoogleカレンダーなどから取得し、そのユーザに合った情報をラズパイに搭載したスピーカーから音声で出力します。

    ユーザ情報の入力には専用のスマートフォンアプリがあり、こちらにGooogleアカウントからログインし、自分の顔などを登録します。

    Emmer

  • 自然の美しさに対する認識を問い直す作品です。
    上空から降り注ぐシャボン玉がガラスの器の中に浮かび、それらの揺れや破裂に音と映像が呼応します。シャボン玉の美しさ、生まれてから消えるまでの微細な変化や儚さを空間全体から感じとることができます。
    ガラスの中にシャボン玉を浮遊させることで膜を安定させ、全体をモノクロの光環境で包むことで、シャボン膜本来の美しさが引き出されています。膜の美しさを最大限引き出したことで、シャボン玉の動きを上空のカメラで認識し、音や映像を同期させることが可能となりました。それにより、シャボン玉の美しさはより際立っています。
    シャボン玉は誰もがその美しさを知っていると思っています。しかし本作品で見られる美しさは我々の想像を超えます。
    周囲の自然の中にも、これまで思っていた以上に美しい本来の姿が潜んでいるかもしれません。
    ガラス、プロジェクター、スピーカー、カメラ、PC

    干渉する浮遊体

  • あなたの伝えたい思いがこもった写真を「これの名は。」botに渡すと、映った人物の表情、背景をAAで変換。
    あなたの気持ちを過剰に表現します。

    botが受け取った写真をMicrosoft Cognitive Servicesを使用して背景、人数、笑顔度に関して判定します。
    それらを用意した画像と重ね合わせて、AA(アスキーアート)画像としてあなたの気持ちを代弁します。

    2016年10月18日に行われた Facebook Messenger Platform ハッカソン ~ジセダイコミュニケーションヲハックセヨ~ での優勝作品です。
    http://mashupaward.jp/2016/10/hackathon-facebook/

    現在Facebook審査通りましたので、誰でもFacebookページにメッセージとして写真を送っていただければAAを作成して返します。

    12月3日のMA2016 2nd stage の発表に合わせてバージョンアップをしました。
    写真の内容・人数への対応・画像のエフェクトなどハッカソンでの発表時以上に面白いAAで返信しますので、ぜひ試してみてください。

    ※Facebookページにメッセンジャーで送る写真としては、海や山などの風景写真や人物の表情がわかる写真を選んでください。
    # User Interface

    * Facebook Messenger
    * Facebook Page

    # Message Sending/Receiving Server

    * Apache, PHP

    # Image Generating Server

    * Microsoft Azure (Linux, Ubuntu)
    * Node.js

    # Image Recognition Service

    * Microsoft Cognitive Services

    これの名は。

  • ##**朝が忙しい主婦、1人暮らしの方、単身赴任のお父さんへ。愛犬のように寄り添ってくれるゴミ箱を捧ぐ。**

    **「あー、天気悪いなぁ。今日朝のゴミ捨て面倒だなー。」**
    **「あれ?次はいつ可燃ごみの日だったっけ?」**
    **「ゴミいっぱいになってた/(^o^)\」**

    PaTrashが、自分のいる場所の天気とゴミの日の情報とゴミの量などで、その日のゴミ捨て予報や事前に捨てると良い日を判断して教えてくれます。

    **【基本機能】**
    - 天気の悪い朝のゴミ捨てをサボれるのか教えてくれる。(お天気&ゴミ量・湿度センサー)
    - ゴミがいっぱいになったら教えてくれる。(ゴミ量センサー)
    - ちょっと余計なヒトコトが多いけども、話しかけると総合して教えてくれる。
    - ゴミの量を記録して、自分の家のゴミスタイルがわかる。(ゴミの傾向データ)
    - 気に入った食品を判別して「そろそろ買わないと」勝手にカートにイン。(画像判別おせっかい)



    ********************************
    ##STEP1
    ゴミ袋をいれ、PaTrashをゴミ箱にセッティング。

    ![](http://kotobuking.net/patrash/step01.png)

    ##STEP2
    スマホでPaTrashについているQRコードを読み取って、自分が普段から使っているゴミ箱の「位置情報」「ゴミの日」「捨てるタイミング」「ゴミ箱の名前」を設定&ペアリングします。

    ![](http://kotobuking.net/patrash/step02.png)

    ![](http://kotobuking.net/patrash/screen_img.png)

    ##STEP3
    PaTrash から反応があったら設定成功です。
    PaTrashに、「ゴミの日いつ?」など話かけてみましょう。

    ![](http://kotobuking.net/patrash/step03.png)

    ********************************

    **NEW!**
    ハッカソン時はゴミ箱そのものでしたが、アタッチメント式に変更。
    家のお気に入りなゴミ箱(?)に設置できるようにしました!

    ###**ハッカソン時のデモ参考動画**
    https://twitter.com/mashupaward/status/779943040496508928
    https://twitter.com/mashupaward/status/779943251964928000
    http://kotobuking.net/kotoblog/2016/10/ma2016_fukuihack/

    ![](https://upload.wikimedia.org/wikipedia/commons/5/5d/Nello_%26_Patrasche.JPG)
    ![](https://docs.google.com/drawings/d/1lTrf97ihJhRMporZAFuo2hmgno99xyy0Jv420ouS_gM/pub?w=359&h=721)

    PaTRASH きょうのウチのごみ予報。

  • クルマの自撮り&加工を自動で行う写真シェアサービスです。

    大切なパートナーである愛車との旅の思い出を最高の一枚に収めたいと思ったことはありませんか?

    旅先で愛車の写真を撮るためには自らが撮影者となってカメラを向けるか、誰かにシャッターを依頼しなければなりません。しかも、写真撮影にはアングルが大切。広告で見るような美しい写真を撮るのは意外に難しいものです。

    このサービスでは、観光地や景勝地にカメラを設置し、愛車で所定の場所に停車すると自動で写真を撮影してくれる”自撮り”システムを構築。撮影した写真は当日の運転状況などに応じて適切な加工が施され、撮影日時や撮影地点の情報とともにサーバにアップされます。

    アップされた写真はSNSでシェアできます。仲間に愛車をアピールできるだけでなく、写真に付与されたタグを通じて、同じ車に乗っている人や同じ景勝地を訪ねた人とコミュニケーションが図れます。誰かに愛車を褒めてもらえたら、それだけで嬉しいものですし、みんなに見てもらえると思えばメンテナンスや洗車にも気合いが入ることでしょう。

    ドライブ旅行”自撮り”サービス「Car Selfie」は、人とクルマの一歩進んだ関係づくりを応援します!

    Car Selfie by車美人