Waiting
Login processing...

Trial ends in Request Full Access Tell Your Colleague About Jove
Click here for the English version

Neuroscience

頭部拘束マウスの空間学習計測のためのオープンソースバーチャルリアリティシステム

Published: March 3, 2023 doi: 10.3791/64863

Summary

ここでは、仮想現実(VR)を使用してマウス空間学習を調査するための簡略化されたオープンソースのハードウェアとソフトウェアのセットアップを紹介します。このシステムは、マイクロコントローラのネットワークと使いやすいPythonグラフィカルソフトウェアパッケージを実行するシングルボードコンピュータを利用して、車輪の上で動作するヘッド拘束マウスに仮想リニアトラックを表示します。

Abstract

マウスでの頭部拘束行動実験により、神経科学者は、行動する動物に正確な感覚刺激を与えながら、高解像度の電気生理学的および光学イメージングツールを使用して神経回路の活動を観察できます。近年、バーチャルリアリティ(VR)環境を用いたヒトやげっ歯類の研究により、VRは、空間的・文脈的手がかりなどのパラメータを極めて精密に制御できるため、海馬や皮質の空間学習の根底にある神経メカニズムを明らかにするための重要なツールであることが示されています。ただし、げっ歯類の空間行動のための仮想環境のセットアップにはコストがかかり、エンジニアリングとコンピュータープログラミングの幅広いバックグラウンドが必要になる場合があります。ここでは、研究者がVR環境を使用して頭部拘束マウスの空間学習を研究できるようにする、安価でモジュール化されたオープンソースのハードウェアとソフトウェアに基づくシンプルで強力なシステムを紹介します。このシステムは、結合マイクロコントローラを使用して移動を測定し、行動刺激を提供し、頭拘束マウスは、シングルボードコンピュータ上で動作するグラフィカルソフトウェアパッケージによってレンダリングされる仮想リニアトラック環境と連携して車輪上を走ります。分散処理に重点を置くことで、研究者は、哺乳類の脳における神経回路活動と空間学習との関係を決定するために、マウスの複雑な空間行動を引き出し、測定するための柔軟なモジュラーシステムを設計することができます。

Introduction

空間ナビゲーションは、動物が新しい場所の特徴を認知マップにエンコードする倫理学的に重要な行動であり、報酬の可能性のある領域を見つけ、潜在的な危険の領域を回避するために使用されます。記憶と密接に関連している空間ナビゲーションの基礎となる認知プロセスは、海馬1と皮質の神経基盤を共有しており、これらの領域の神経回路は入ってくる情報を統合し、後で思い出すために環境とイベントの認知マップを形成します2。海馬3,4の場所細胞と嗅内皮質5のグリッド細胞の発見は、海馬内の認知地図がどのように形成されるかを明らかにしましたが、特定の神経サブタイプ、マイクロ回路、および海馬の個々のサブ領域(歯状回、および角膜アンモニス領域、CA3-1)がどのように相互作用し、空間記憶の形成と想起に関与するかについては多くの疑問が残っています。

in vivo二光子イメージングは、感覚神経生理学における細胞および集団動態を明らかにする上で有用なツールとなっています6,7。しかし、頭部拘束の典型的な必要性は、哺乳類の空間行動を調べるためのこの方法の有用性を制限する。バーチャルリアリティ(VR)8の出現により、没入型でリアルな視空間環境を提示し、頭部拘束マウスがボールまたはトレッドミルで走り、海馬8910および皮質11の空間的および文脈的エンコーディングを研究することでこの欠点に対処しました。さらに、行動するマウスによるVR環境の使用により、神経科学研究者は、モリス水迷路、バーンズ迷路、またはホールボードタスクなどの空間学習の現実世界の実験では不可能な方法で、VR環境12の要素(例えば、視覚の流れ、文脈変調)を正確に制御することによって空間行動の構成要素を分析することができた。

ビジュアルVR環境は通常、コンピューターのグラフィックプロセッシングユニット(GPU)にレンダリングされ、画面上の移動する3D環境をリアルタイムでモデル化するために必要な数千のポリゴンを迅速に計算する負荷を処理します。大規模な処理要件は、一般に、動物の下のトレッドミル、ホイール、またはフォームボールから動きが記録されるときに、視覚環境をモニタ、複数のスクリーン13、またはプロジェクタ14 にレンダリングするGPUを備えた別個のPCの使用を必要とする。したがって、VR環境を制御、レンダリング、および投影するための結果として得られる装置は、比較的高価で、かさばり、そして煩雑である。さらに、文献中のそのような環境の多くは、コストがかかり、専用のPC上でしか実行できないプロプライエタリソフトウェアを使用して実装されている。

これらの理由から、Raspberry Piシングルボードコンピュータを使用して、頭部拘束マウスの空間学習行動を研究するためのオープンソースVRシステムを設計しました。このLinuxコンピューターは小型で安価でありながら、3Dレンダリング用のGPUチップを搭載しているため、さまざまな個別セットアップでVR環境をディスプレイまたは動作装置と統合できます。さらに、Pythonで記述されたグラフィカルソフトウェアパッケージ「HallPassVR」を開発し、シングルボードコンピュータを利用して、グラフィカルユーザーインターフェイス(GUI)を使用して選択したカスタム視覚機能を再結合することにより、単純な視空間環境、仮想線形トラックまたは廊下をレンダリングします。これは、マイクロコントローラサブシステム(ESP32やArduinoなど)と組み合わせて、強化学習を促進するための感覚刺激または報酬の他のモダリティの送達などによって、移動を測定し、行動を調整します。このシステムは、空間学習行動の根底にある神経回路を研究するための2光子イメージング(または頭部固定を必要とする他の技術)中に、頭部拘束マウスに視空間VR環境を提供するための安価で柔軟で使いやすい代替方法を提供します。

Subscription Required. Please recommend JoVE to your librarian.

Protocol

このプロトコルのすべての手順は、ニューヨーク州精神医学研究所の施設動物管理および使用委員会によって承認されました。

注:シングルボードコンピュータは、車輪の上で頭を拘束するマウスの実行と調整されたVR視覚環境を表示するために使用されます。動き情報は、ホイールアクスルに結合されたロータリーエンコーダを読み取るESP32マイクロコントローラからシリアル入力として受信されます。VR環境は、ラズベリーパイ用のpi3d Python 3Dパッケージを利用するラズベリーパイGPUのOpenGLハードウェアアクセラレーションを使用してレンダリングされます。次いで、レンダリングされた環境は、プロジェクタを介して、頭部拘束マウスの視野15,16を中心としたコンパクトなラップアラウンド放物線スクリーンに出力され、一方、挙動(例えば、空間報酬に応答して舐める)は、第2の挙動ESP32マイクロコントローラによって測定される。グラフィカルソフトウェアパッケージを使用すると、グラフィカルユーザーインターフェイス(GUI)を使用して、仮想廊下または廊下に沿って視覚刺激の繰り返しパターンで構成される仮想リニアトラック環境を作成できます。この設計は簡単にパラメータ化できるため、空間学習中に脳が場所と視覚的手がかりをどのようにエンコードするかを理解することを目的とした複雑な実験を作成できます(セクション4を参照)。このシステムに必要なカスタムハードウェアコンポーネント(ランニングホイール、プロジェクションスクリーン、ヘッドレスト装置など)の設計は、パブリックGitHubリポジトリ(https://github.com/GergelyTuri/HallPassVR)に寄託されます。サイトはシステムの将来の機能強化で更新されるため、このプロトコルとともにそのリポジトリのドキュメントを読むことをお勧めします。

1.ハードウェアのセットアップ:ランニングホイール、プロジェクションスクリーン、ヘッド固定装置の構築

注意: これらのセットアップのカスタムコンポーネントは、ユーザーが3D印刷およびレーザー切断装置にアクセスできる場合、または専門の製造または3Dプロトタイピングサービス(eMachinehopなど)にアウトソーシングできる場合、簡単に製造できます。すべての設計ファイルは として提供されます。STL 3D ファイルまたは .DXF AutoCAD ファイルにエクスポートします。

  1. ランニングホイールと動作のセットアップ(図1)
    注:ホイールは、ボールベアリングを介してレーザーカットされたアクリルマウントから吊り下げられた車軸を中心とした透明なアクリルシリンダー(直径6、幅3、厚さ1/8)で構成されています。次に、ホイールアセンブリを軽量アルミニウムフレーム(tスロット)に取り付け、光学ブレッドボードにしっかりと固定します(図1C-E)。
    1. ホイールとアクスルマウントの側面を1/4インチのアクリルシートからレーザーカットし、ホイールの側面をアクリルセメントでアクリルシリンダーに取り付けます。アクスルフランジをホイールサイドピースの中央にねじ込みます。
    2. 車軸をホイールセンターフランジに挿入し、ボールベアリングを車軸マウントにはめ込み、垂直アルミニウムサポートバーに取り付けます。
    3. ホイールアクスルを取り付けられたボールベアリングに挿入し、ロータリーエンコーダを取り付けるためにアクスルの0.5〜1インチをベアリングから外します。
    4. ロータリーエンコーダマウントをホイールの反対側の車軸の端に取り付け、ロータリーエンコーダを挿入します。次に、シャフトカプラーを使用して、ホイールアクスルをロータリーエンコーダシャフトに結合します。
    5. リックポートをフレックスアームに取り付け、Tスロットナットでアルミホイールフレームに取り付けます。1/16インチのチューブを使用して、リックポートを電磁弁に接続し、バルブを貯水池に接続します。
      注意: リックポートは、動作ESP32の静電容量式タッチセンシングピンに取り付けるにはんだ付けされたワイヤーを備えた金属製である必要があります。
  2. プロジェクションスクリーン
    注:VRスクリーンは、クリストファーハーベイの研究室15,16で開発されたデザインに基づいた小さな放物線状のリアプロジェクションスクリーン(キャンバスサイズ:54 cm x 21.5 cm)です。使用されるLEDプロジェクターの投影角度(キーストーン)は、以前に使用されたレーザープロジェクターの投影角度とは異なります。したがって、ユニットを画面の下に取り付け、ミラーシステムを簡素化することにより、元の設計がわずかに変更されます(図1A、B)。ユーザーのニーズに合わせてVR環境を調整するために、Harveyラボのドキュメントを読むことを強くお勧めします15
    1. 投影スクリーンの側面を黒いマットアクリルシートで1/4からレーザーカットします。背面投影ミラーをミラーアクリルの1/4からレーザーカットします。
    2. 投影スクリーンフレームをアルミバーで組み立て、アクリルパネルをレーザーカットします。
    3. 半透明の投影スクリーン素材をフレームの放物線スロットに挿入します。リアプロジェクションミラーをプロジェクションスクリーンフレームの背面にあるスロットに挿入します。
    4. 投影スクリーンフレーム内の下部取り付けプレートにLEDプロジェクターを置きます。プロジェクターを取り付けボルトに合わせ、放物線状のリアプロジェクションスクリーンに投影された画像の位置を最適化します。
    5. 必要に応じて、光学センサーの光による汚染を防ぐために、プロジェクターボックスユニットを密閉してください。
  3. ヘッドレスト装置
    注意: このヘッドレスト装置の設計は、金属製のヘッドポストを固定するための2つのインターロック3Dプリントマニホールドで構成されています(図1E、F)。
    1. 高解像度SLM 3Dプリンターを使用して、ヘッドポスト保持アームを3Dプリントします。
      注:樹脂印刷されたプラスチックは、行動実験に安定したヘッド固定を提供することができます。ただし、シングルセル記録や2光子イメージングなどの高感度アプリケーションで最大の安定性を実現するには、機械加工された金属部品(eMachineShopなど)を使用することをお勧めします。
    2. 3Dプリントされたヘッドポストホルダーを光学取り付けポスト付きの2軸ゴニオメーターに取り付けて、動物の頭を傾けて準備を水平にできるようにします。
      注:この機能は、後続のイメージングセッションで同じ細胞集団を見つける必要がある場合の長期 のin vivo イメージング実験に不可欠です。それ以外の場合は、セットアップのコストを削減するためにこの機能を省略できます。
    3. ヘッドポストを製作します。
      注:複雑さ(および価格)が異なる2種類のヘッドポストは、これらの手順とともに、材料表に記載されているリンクに記載されています。
      1. 実験の種類に応じて、実装するヘッド ポストを決定します。ヘッドバーはステンレス鋼でできており、通常、製造のために地元の機械工場またはオンラインサービス(eMachineShopなど)にアウトソーシングされます。

2.電子機器のハードウェア/ソフトウェアのセットアップ(シングルボードコンピューター、ESP32マイクロコントローラー、図2)

  1. シングルボードコンピュータを設定します。
    注: 材料表 (Raspberry Pi 4B)に含まれているシングルボードコンピューターは、VR環境のレンダリングを容易にするオンボードGPUと、実験制御/監視およびVRプロジェクション用の2つのHDMIポートを備えているため、このセットアップに最適です。これらの特性を持つ他のシングルボードコンピューターは代替される可能性がありますが、次の手順の一部はRaspberryPiに固有のものである場合があります。
    1. シングルボードコンピュータイメージャアプリケーションをPCにダウンロードし、microSDカード(16+ GB)にOS(現在はラズベリーパイOS r.2021-05-07)をインストールします。カードを挿入し、シングルボードコンピュータを起動します。
    2. pi3d Python 3Dライブラリ用にシングルボードコンピュータを設定します:(メニューバー) 環境設定>ラズベリーパイ設定
      1. [ ディスプレイ>画面のブランキング]をクリックして>無効にします
      2. インターフェイス > シリアルポート をクリックして>有効にします。
      3. [ GPUメモリ>パフォーマンス>256 (MB)]をクリックします。
    3. pi3d用のPythonイメージライブラリパッケージをアップグレードします:(ターミナル)> sudo pip3インストール枕--upgrade。
    4. シングルボードコンピュータ用のpi3d Python 3Dパッケージをインストールします: (ターミナル)> sudo pip3 は pi3d をインストールします。
    5. プロジェクターのHDMI出力レベルを上げます:(ターミナル)> sudo nano /boot/config.txtconfig_hdmi_boost = 4のコメントを外し、保存して再起動します。
    6. ロータリーエンコーダーと動作ESP32マイクロコントローラーにコードをロードするために必要な統合開発環境(IDE)を arduino.cc/en/software(arduino-1.8.19-linuxarm.tar.gzなど)からダウンロードしてインストールします。
    7. ESP32マイクロコントローラのサポートをIDEにインストールします。
      1. [ファイル>設定]>[追加のボードマネージャーURL]をクリックします=https://raw.githubusercontent.com/espressif/arduino-esp32/gh-pages/package_esp32_index.json
      2. クリック ツール>ボード > ボードマネージャー > ESP32 (エスプレッシフによる)。v.2.0.0をインストールします(現在、v2.0.4ではアップロードに失敗します)。
    8. VR中のマウスの動作の記録とオンラインプロットに必要なプロセッシングIDEを https://github.com/processing/processing4/releases からダウンロードしてインストールします(例:processing-4.0.1-linux-arm32.tgz)。
      注:Arduinoおよび処理環境は、必要に応じてVRシングルボードコンピューターとは別のPCで実行できます。
  2. ロータリーエンコーダESP32接続を設定します。
    注意: ホイールアクスルに結合されたロータリーエンコーダは、ESP32マイクロコントローラーでカウントされるマウスの移動でホイールの回転を測定します。次に、位置の変更はシングルボードコンピュータのGPIOシリアルポートに送信され、グラフィカルソフトウェアパッケージを使用して仮想環境を通る動きを制御し、動作ESP32に送信されて報酬ゾーンを制御します(図2)。
    1. ロータリーエンコーダーコンポーネントとロータリーESP32の間のワイヤーを接続します。ロータリーエンコーダは通常、+、GND、A、B(クワドラチャエンコーダ用の2つのデジタルライン)の4本のワイヤを備えています。これらをジャンパー線 を介して ESP32 3.3 V、GND、25、26に接続します(添付コードの場合)。
    2. シリアルRX / TXワイヤをロータリーESP32とビヘイビアESP32の間に接続します。ロータリーESP32 Serial0 RX / TX(受信/送信)と動作ESP32のシリアル2ポート(TX / RX、ピン17、16、OMwSmall PCBの右側にあるシリアル2ポートを参照)の間に単純な2線式接続を行います。これにより、ロータリーエンコーダーから報酬ゾーンなどの空間ゾーンの動作設定に移動情報が伝達されます。
    3. ロータリーESP32とシングルボードコンピューターのGPIO(または直接USB接続)の間にシリアルRX / TXワイヤーを接続します。シングルボードコンピュータのGPIOピン14、15(RX / TX)とロータリーESP32シリアル2(TX / RX、ピン17、16)の間に2線式接続を行います。これにより、ロータリーエンコーダからシングルボードコンピュータ上で動作するグラフィカルソフトウェアパッケージに移動情報が伝達されます。
      注:この手順は、ロータリーESP32がUSB 経由で 接続されていない場合(つまり、 "/dev/ttyS0"のGPIOシリアル接続である)にのみ必要ですが、それ以外の場合は「/ dev / ttyUSB0」を使用するようにHallPassVR_wired.pyコードを変更する必要があります。このハードワイヤード接続は、将来のバージョンでワイヤレスBluetooth接続に置き換えられる予定です。
    4. ロータリーESP32 USBをシングルボードコンピューターのUSB(またはIDEを実行している他のPC)に接続して、最初のロータリーエンコーダコードをアップロードします。
  3. ビヘイビアハードウェアとのビヘイビアESP32接続を設定します(OpenMaze PCB経由 )。
    注:動作ESP32マイクロコントローラは、ESP32用の一般的なPCB「ブレークアウトボード」を介して接続されているすべての非VR動物の相互作用(非VR刺激と報酬の提供、マウスの舐めの検出)を制御します www.openmaze.org。PCBには、液体報酬を提供するために使用されるソレノイドバルブなど、電気機械部品を駆動するために必要な電子部品が含まれています。
    1. 12 V 液体ソレノイド バルブを OMwSmall PCB の左端にある ULN2803 IC 出力に接続します (セットアップ例とコードのピン 12)。このICは、挙動ESP32マイクロコントローラのGPIO出力によって制御される報酬ソレノイドバルブに12Vの電力を供給します。
    2. リックポートをESP32タッチ入力(例のコードのT0、GPIO4)に接続します。ESP32には、特定のピンに静電容量式タッチセンシングが組み込まれており、ESP32コードは、VR動作中にマウスが接続された金属リックポートをなめていることを検出するために使用します。
    3. 動作ESP32シリアル2(ピン16、17)とロータリーエンコーダESP32シリアル0の間にシリアルRX / TXワイヤを接続します(手順2.2.2を参照)。
    4. USBをシングルボードコンピューターのUSBポート(または他のPC)に接続して、さまざまな実験パラダイム(報酬ゾーンの数/場所など)の新しいプログラムを動作ESP32にアップロードし、付属の処理スケッチを使用して動作データをキャプチャします。
    5. 12 V DCACアダプタを動作ESP2.1 OMwSmall PCBの32 mmバレルジャックコネクタに差し込み、報酬ソレノイドバルブに電力を供給します。
    6. シングルボードコンピューターのHDMI#2出力をプロジェクターのHDMIポートに接続します。これにより、シングルボードコンピューターのGPUによってレンダリングされたVR環境がプロジェクションスクリーンに運ばれます。
    7. (オプション)同期ワイヤ(ピン26)をニューラルイメージングまたは電気生理学的記録セットアップに接続します。3.3Vのトランジスタ-トランジスタ-ロジック(TTL)信号が5秒ごとに送信され、システムをほぼミリ秒の精度でアライメントします。
  4. ソフトウェアのセットアップ:IDEを使用してファームウェア/ソフトウェアをロータリーエンコーダESP32(図2B)および動作ESP32(図2E)にロードし、VR Pythonソフトウェアをシングルボードコンピューターにダウンロードします。https://github.com/GergelyTuri/HallPassVR/software を参照してください。
    1. ロータリーエンコーダーESP32を最初にシングルボードコンピューターのUSBポートに接続します-これはOSによって自動的に / dev / ttyUSB0」という名前が付けられます。
    2. ロータリーエンコーダコードを読み込む: IDE でファイル RotaryEncoder_Esp32_VR.ino を開き、[ツール] > [ボード] > ESP32 開発モジュール] で ESP32 を選択します。[ ツール] > [ポート] > /dev/ttyUSB0 をクリックして ESP32 ポートを選択し、[ アップロード] をクリックします。
    3. 次に、動作ESP32をシングルボードコンピューターのUSBポートに接続します-これはOSによって「/ dev / ttyUSB1」という名前になります。
    4. 動作シーケンスコードを動作 ESP32 (IDE、 ESP32 開発モジュール が既に選択されています) に読み込み、[ ツール] > ポート > /dev/ttyUSB1 をクリックし、[ アップロード: wheel_VR_behavior.ino] をクリックします。
    5. IDE で各 ESP32 のシリアル ポート (ツール > ポート > /dev/ttyUSB0 または /dev/ttyUSB1) を選択し、[ツール] > [シリアル モニター] (ボー レート: 115,200) をクリックして、ロータリー ボード (USB0) またはビヘイビア ボード (USB1) からのシリアル出力を確認します。ホイールを回転させて、USB0のロータリーESP32からの生の動きの出力、またはUSB1のビヘイビアESP32からのフォーマットされた動きの出力を確認します。
    6. グラフィカルソフトウェアパッケージのPythonコードを https://github.com/GergelyTuri/HallPassVR/tree/master/software/HallPassVR からダウンロードします(/ home/pi / Documentsへ)。このフォルダには、pi3d Python3 パッケージが以前に正しくインストールされていた場合 (ステップ 2.1)、グラフィカルソフトウェアパッケージを実行するために必要なすべてのファイルが含まれています。

3. グラフィカルソフトウェアパッケージの実行とテスト

注:グラフィカルソフトウェアパッケージGUIを実行して、VRリニアトラック環境を開始し、VRソフトウェアと動作ESP32コードの距離を調整し、付属の処理言語スケッチを使用してマウスの実行および舐め動作の取得とオンラインプロットをテストします。

  1. シングルボードコンピュータでターミナルウィンドウを開き、HallPassVRフォルダ(ターミナル:> cd /home/pi/ドキュメント/HallPassVR/HallPassVR_Wired) に移動します。
  2. VR GUI:(ターミナル)> python3 HallPassVR_GUI.py を実行します(GUIウィンドウが開きます、 図3A)。
  3. グラフィカルソフトウェアGUI
    1. トラックに沿った3つのパターンのそれぞれについて、リストボックスから4つの要素(画像)を選択して追加し(または、以下の事前に保存されたパターンを選択して[ アップロード]をクリックします)、 生成をクリックします。
      注:GUIを実行する前に、新しいイメージファイル(.jpeg)をHallPassVR / HallPassVR_wired /images/ELEMENTSフォルダに配置できます。
    2. ドロップダウンメニューから床と天井の画像を選択し、このサンプルコードではトラックの長さを2 mに設定します(動作ESP32コードと処理コードでミリメートル[mm]単位の trackLength と等しくなければなりません)。
    3. 必要に応じて、このパターンに名前を付けます (HallPassVR_wired/images/PATH_HIST に保存されます)。
    4. [スタート]ボタンをクリックします(VRウィンドウが起動するまで待ってから、他の場所をクリックします)。VR環境が画面#2(投影画面、図3B、C)に表示されます。
  4. 処理スケッチを実行して、動作データ/動きを取得してプロットします。
    1. 処理 IDEVRwheel_RecGraphSerialTxt.pde を開きます。
    2. 動物を変更する = "あなたのマウス番号"; 変数を設定し、 sessionMinutes を動作セッションの長さ (分単位) と等しく設定します。
    3. 処理IDEの[実行]ボタンをクリックします。
    4. プロセッシングプロットウィンドウをチェックすると、ホイールが回転するにつれて仮想リニアトラック上の現在のマウス位置と、30秒ごとに更新されるリック、ラップ、リワードの報酬ゾーンとランニングヒストグラムが表示されます(図3D)。ランニングホイールを手で進めて、テスト用のマウスの実行をシミュレートするか、テストマウスを使用して初期設定を行います。
    5. プロットウィンドウをクリックし、キーボードの q キーを押して行動データの取得を停止します。動作イベントと時間のテキストファイル(通常、セッションあたり<2 MBのサイズ)と最終的なプロットウィンドウの画像(.png)は、 sessionMinutes が経過するか、ユーザーが q キーを押して終了したときに保存されます。
      注:出力.txtファイルのサイズが小さいため、シングルボードコンピュータのSDカードには少なくとも数千の動作記録を保存できると推定されています。データファイルは、後で分析するためにサムドライブに保存することも、ローカルネットワークに接続している場合は、データをリモートで管理することもできます。
  5. ビヘイビアトラックの長さをVRトラックの長さで調整します。
    1. VRコリドーとマウスの位置(処理プロット上)を観察しながら、手でホイールを進めます。マウスが動作プロットの終点に達する前/後に VR コリドーが終了する場合は、2 つのシステムでトラックが同時にリセットされるまで、VR トラックの長さを段階的に増減します (HallPassVR_wired.py、 corridor_length_default、センチメートル [cm])。
      注:このコードは現在、256ポジションの直交ロータリーエンコーダを使用して直径6インチのランニングホイール用に校正されているため、ユーザーはVR(HallPassVR_wired.py、 corridor_length_default、センチメートル[cm])と動作コード(wheel_VR_behavior.ino、 trackLength、ミリメートル[mm])を変更して、他の構成を考慮する必要があります。ただし、動作位置は、システム間の対応を維持するために、VRラップごとにリセットされます。

4. マウストレーニングと空間学習行動

注:マウスは頭固定のために移植され、頭の拘束に慣れ、次に車輪の上を走り、液体の報酬のために一貫して舐めるように訓練されます(「ランダム採餌」)。次に、一貫したランニングと舐めを達成したマウスは、VR環境を使用して空間的な隠れた報酬タスクでトレーニングされ、仮想リニアトラックの視覚的な手がかりに従って単一の報酬ゾーンが提示されます。空間学習は、報酬ゾーンの直前の位置に対する舐め選択性の増加として測定されます。

  1. 頭部移植後手術:この手順は、このジャーナルの他の場所や他の場所で詳細に説明されているため、具体的な手順については、この文献を参照してください7、17、18192021
  2. 水のスケジュール
    1. 最初の取り扱いの24時間前に水分制限を行い(以下を参照)、慣れまたは頭を拘束する行動の各セッションの後に 自由 摂取を許可します。馴化中の3日間かけて徐々に水の利用時間を5分程度に減らし、マウスの体重が制限前の体重の80%を下回らないように個々のマウスの量を調整します。各動物の体重を毎日監視し、脱水の兆候がないか各マウスの状態を観察します22。制限前の体重の80%を維持できない、または脱水症状のように見えるマウスは、研究から除外し、無料の水の利用可能性を与える必要があります。
      注:水の制限は、液体の報酬を使用してマウスがホイール上を走るように動機付けたり、トラックに沿って学習した場所の指標として空間的な舐めを使用したりするために必要です。施設のガイドラインは、この手順の具体的な指示によって異なる場合があるため、ユーザーは、水制限中の動物の健康と福祉を確保するために、個々の施設の動物管理委員会に相談する必要があります。
  3. 取り扱い:移植されたマウスを毎日取り扱い、ヒトとの接触に慣れさせ、その後、限られた 自由 摂取水を補強として投与することができます(1〜5分/日、2日から1週間)。
  4. ヘッドレストへの慣れ
    1. マウスをヘッドレスト装置に入れて、ヘッドレストに長時間慣れさせ、時折水滴で報酬を与えて、ヘッド固定のストレスを軽減します。
    2. 5分間の頭部固定から始めて、マウスが最大30分間の固定に耐えられるようになるまで、毎日5分ずつ持続時間を増やします。マウスが苦労している、またはほとんど動いていないように見える場合は、固定装置からマウスを取り外します。ただし、マウスは通常、数回のセッションで自発的にホイール上を走り始めるため、トレーニングの次の段階の準備が整います。
      注:頭の拘束下で繰り返し苦労したり、報酬を求めて走ったり舐めたりしないマウスは、トレーニングの初期段階に退行し、そのような3つの治療サイクルで進行しない場合は研究から削除する必要があります( 表1を参照)。
  5. ラン/リックトレーニング(ランダム採餌)
    注:VR環境で空間学習タスクを実行するには、マウスは最初にホイールで走り、時折報酬を得るために一貫してなめることを学ぶ必要があります。オペラント挙動パラメータの進行は、挙動ESP32マイクロコントローラ を介して 制御される。
    1. 非オペラント報酬によるランダム採餌
      1. 任意の視覚要素のパスを使用してグラフィカルソフトウェアGUIプログラムを実行します(ユーザーの選択、手順3.3を参照)。
      2. 複数の非オペラント報酬(コード変数: isOperant=0、numRew=4isRandRew=1)を使用してビヘイビアESP32にビヘイビアプログラムをアップロードし、マウスを走らせて舐めるように条件付けます。マウスがセッションごとに少なくとも20周走るまで、20〜30分のセッションでマウスを実行し、ランダムな場所(1〜4セッション)で提示された報酬をなめます。
    2. 交互のラップでのオペラント報酬によるランダムな採餌
      1. altOpt=1(オペラント/非オペラントラップを交互に)で行動プログラムをアップロードし、非オペラント報酬ゾーンとオペラント報酬ゾーンの両方をなめるまでマウスを訓練します(1〜4セッション)。
    3. 完全にオペラントランダム採餌
      1. 4つのオペラントランダム報酬ゾーン(動作ESP32コード変数:isOperant=1、numRew=4、isRandRew=1)を含むビヘイビアプログラムをアップロードします。このトレーニングステップの終わりまでに、マウスは一貫して走り、トラックの長さ全体にわたってテストリックを実行しているはずです(1〜4セッション;図4A)。
  6. 空間学習
    注:空間的嗅覚手がかりを使用した最近の実験と同様に、トラックに沿って暗いパネルがあり、中央に1つの高コントラスト視覚刺激パネルがある長さ2 mの廊下を選択して、単一の視覚的手がかりから少し離れた単一の隠された報酬ゾーンを使用して空間学習実験を実行します(0.9〜1.1 mの位置)、空間嗅覚手がかりを使用した最近の実験と同様に20.マウスは、仮想リニアトラック環境の視覚的手がかりから離れた場所にある報酬ゾーン(1.5〜1.8 mの位置)で舐める必要があります。
    1. 中央に単一の視覚的な手がかりがある暗い廊下の経路でグラフィカルソフトウェアプログラムを実行します(たとえば、チェス盤、ステップ3.3、 図3Aを参照)。
    2. 単一の非表示報酬ゾーンを持つ動作プログラムを動作 ESP32 にアップロードします (動作 ESP32 コード変数: isOperant=1, isRandRew=0, numRew=1, rewPosArr[]= {1500})。
    3. マウスをヘッド固定装置にそっと置き、舐め口をマウスの口のすぐ前の位置に調整し、マウスホイールを投影スクリーンゾーンの中央に配置します。最終調整後、マウスの頭が画面から~12〜15 cm離れていることを確認してください。
    4. プロセッシングスケッチで動物の名前を設定し、 プロセッシングIDE で[実行]を押して、ビヘイビアデータの取得とプロットを開始します(ステップ3.4を参照)。
    5. 単一の隠された報酬ゾーンと単一の視覚的な手がかりVR廊下で30分間のセッションのためにマウスを実行します。
    6. オフライン: [処理スケッチ]フォルダから.txtデータファイルをダウンロードし、空間的な舐め動作を分析します(たとえば、Matlabで含まれているファイルprocVRbehav.mおよびvrLickByLap.m)。
      注:マウスは、最初に仮想トラック全体に対してテストリックを実行し(「ランダム採餌」)、次にVRビジュアルキューに続いて報酬位置の近くでのみ選択的にリックを開始します(図4)。

Subscription Required. Please recommend JoVE to your librarian.

Representative Results

このオープンソースのバーチャルリアリティ行動設定により、頭を拘束されたマウスが仮想リニアトラック環境をナビゲートする際の空間学習の読み取り値として舐め行動を定量化することができました。生後4か月の男女7匹のC57BL/6マウスを制限された水のスケジュールに置き、VRなしでランダムな空間報酬(「ランダムな採餌」)のために車輪の上を走りながら低レベルで継続的に舐めるように最初に訓練されました。2 mのランダムな廊下パターンのVRプロジェクションスクリーンセットアップに移動すると、最初はパフォーマンスが影響を受けましたが、数回のVRセッションで以前のレベルに戻りました(図4A)。VRでランダムな採餌戦略を開発したマウス(7匹のマウスのうち6匹、86%、1匹のマウスは一貫して走れず除外されました)は、水の報酬を受け取るために、他の点では特徴のない2 mの仮想トラックの真ん中にある単一の視覚的な場所の手がかりに続いて、0.5 mのキューのないオペラント報酬ゾーンをなめる必要がありました(「隠された報酬タスク」)。このシステムの現在のパイロットデータによると、7匹のマウスのうち4匹(57%)は、選択性を高めながら報酬ゾーンの近くを舐めることによって示されるように、2〜4回のセッションで単一の視覚的手がかりで隠された報酬タスクを学ぶことができました(表1図4BC)、これは非VRトレッドミルでの以前の結果と同様です17.この事実は、広範なトレーニングなしで学習の重要な期間中の神経活動の監視および/または操作を可能にするため、空間学習の研究において重要です。さらに、マウスはセッション内学習とセッション間学習の両方を示し(図4C)、空間学習に伴う短期および長期の神経回路適応の両方を観察する機会を提供しました。同等の非VRタスクの学習率をテストしませんでしたが、モリス水迷路などの多くの古典的な現実世界の海馬依存空間タスクは、さらに広範なトレーニングを必要とし、行動試験が劇的に少ないため、神経活動の変化に伴う学習行動のモニタリングにはあまり適していません。

このパイロットグループのマウスの大多数(57%)は、少数のセッションで隠れた報酬タスクを学習することができましたが、追加のマウスはより長い時間スケールで空間学習を示す可能性があり、個別のトレーニングはこの割合のマウスを増やすはずです。実際、学習率の変動は、海馬などの脳領域の神経活動と行動学習との間の特定の関係を解離するのに役立つ可能性があります。しかし、ごく一部のマウスは、非オペラント報酬またはオペラント報酬のいずれかのために車輪の上を走ったり舐めたりすることを学ばなかったため(7匹のマウスのうちの1匹、14%)、したがって、その後の実験には使用できませんでした。望ましい食物おやつを使用するなどによるさらなる強化による追加の取り扱いおよび慣れ、ならびに動物のストレスの一般的な状態の低減は、これらの動物が車輪上で頭を拘束する行動中に積極的なランニングおよび舐めを採用するのを助けるのに有用であり得る。

仮想トラック上の断続的なラップ上のキューゾーンと報酬ゾーンの存在と位置を操作することにより、実験者は、VR内の特定の情報チャネルに対する空間選択的な舐めの依存性をさらに識別して、たとえば、マウスが環境内の位置を確立するためにローカルまたは遠隔のキューまたは自己運動情報にどのように依存するかを決定することができます。隠れた報酬位置を学習したマウスの舐め選択性は、空間的嗅覚手がかり20を用いた最近の研究で示したように、この空間的手がかりをランドマークとして積極的に利用する場合、トラックに沿った視覚的手がかりのシフトまたは省略によって影響を受けるはずです。ただし、ここで紹介した簡単な例を使用しても、マウスによって達成された高度に選択的な舐め(図4C、右)は、報酬ゾーンがVR環境の視覚的手がかりに関連してのみ明らかであるため、VR視覚環境をエンコードして、どこにいるか、したがっていつ舐めるかについての決定を通知することを示しています。このVRシステムは、嗅覚、触覚、聴覚の手がかりなど、視覚VR環境に加えて、空間的および文脈的手がかりの他のモダリティの提示も可能にし、異なる感覚的手がかりの複雑な組み合わせに対する神経活動および行動の選択性をテストするために使用することができる。さらに、タスクのパフォーマンスが海馬活動に依存するかどうかはテストしていませんが、同様のタスクを使用し、触覚手がかりを使用した最近の研究では、海馬の不活性化を伴う空間学習の摂動が示されました23これは、この研究で実行されるVR隠れた報酬タスクについて確認する必要があります。

Figure 1
図1:頭部拘束VRハードウェアのセットアップ:投影スクリーン、ランニングホイール、およびヘッド固定装置。 (A)ランニングホイールとプロジェクションスクリーンの3D設計概略図。(B)VR行動のセットアップが完了しました。VR環境は、(1)シングルボードコンピュータでレンダリングされ、放物線状の(2)リアプロジェクションスクリーンに投影されます(Chris Harveyの研究室の設計15,16に基づく)。(3)ホイールアセンブリ。(4)ヘッドポストホルダー。(5)報酬配達のための貯水池。(C)投影スクリーンの上面図と行動設定。(1)LEDプロジェクター。(2)VR廊下を曲面スクリーンにリアプロジェクションするためのミラー。(3)ランニングホイール。(D)ホイールアセンブリの背面図。ホイールの回転は、(1)ロータリーエンコーダによって変換され、(2)ESP32マイクロコントローラを介してシングルボードコンピュータに送信されます。(3)2軸ゴニオメーターを使用して、光学イメージングのヘッド位置を微調整します。(E)マウス挿入のレベルでセットアップし、(1)ヘッド固定装置と(2)(3)ランニングホイール表面上のリックポートの配置を示します。(F)マウスの口の近くに報酬スパウトを正確に配置するために(2)フレックスアームに取り付けられた(1)リックポートの写真。報酬は、動作ESP32によって制御される(3)ソレノイドバルブを介して与えられます(OpenMaze OMwSmall PCB経由)。また、(4)ホイールアクスルと(5)ヘッド角度調整用のゴニオメーターに結合されたロータリーエンコーダも見えます。この図の拡大版を表示するには、ここをクリックしてください。

Figure 2
2:VRエレクトロニクスのセットアップ回路図。この回路図は、マウス用のオープンソースバーチャルリアリティシステムにおける電子部品間の最も関連性の高い接続を示しています。(A)マウスは、アクリル製のランニングホイールの上にあるカスタム3Dプリントされた頭部固定装置で頭部拘束されます。(B)マウス走行時のホイールアクスルの回転は、マイクロコントローラに接続された高分解能ロータリーエンコーダ(ロータリーデコーダESP32)によって検出されます。(C)移動情報は、HallPassVR GUIソフトウェアと3D環境を実行しているシングルボードコンピューターにシリアル接続を介して伝達され、マウスの移動に基づいてVR仮想リニアトラック環境での位置を更新します。(D)レンダリングされたVR環境は、シングルボードコンピューターのHDMI #2ビデオ出力(VRビデオHDMI)を介してプロジェクター/スクリーンに送信されます。(E)ロータリーエンコーダESP32からの動き情報は、別のマイクロコントローラ(OpenMaze OMwSmall PCBを搭載した動作ESP32)にも送信され、マウスの位置を使用して、VR環境と連携して空間的な非VR行動イベント(報酬ゾーンや空間的な嗅覚、触覚、聴覚刺激など)を制御し、静電容量式タッチセンシングを介してマウスによる報酬スパウトの舐めを測定します。この図の拡大版を表示するには、ここをクリックしてください。

Figure 3
図3:グラフィカルソフトウェアのGUIと動作 。 (A) HallPassVR GUI:トラック長に等しい各パスの3つのパターンについて、トラック長の3分の1をカバーする各空間パターンに並べて表示される(または以前に保存された組み合わせパターンがロードされる)4つの画像が選択されます。天井と床の画像を選択し、[ スタート ]を押して、シングルボードコンピューターのHDMI出力(プロジェクションスクリーン)のVR環境を初期化します。(B) A に示すGUIパラメータで作成し、空間学習をテストするための隠れた報酬実験に使用される仮想コリドーの例。(C) Bに示す仮想環境で車輪の上を走る頭拘束マウスの写真。(D)トップパネルは、行動データを記録およびプロットするための、付属のProcessingスケッチからVR環境での動物の行動のオンラインプロットを示しています。リック、ラップ、報酬は、隠れた報酬空間学習中の30分間のセッションの30秒の時間ビンごとにプロットされます。下のパネルには、現在のマウスの位置(黒)と、動作中の報酬ゾーンの位置(灰色)が表示されます。 この図の拡大版を表示するには、ここをクリックしてください。

Figure 4
図4:グラフィカルソフトウェア環境を使用した空間学習。1匹の動物からの代表的な空間舐めデータ(A)仮想線形トラックに沿ったランダムな手がかりによるランダムな採餌中、および(B-C)トラックの中央に単一の視覚的手がかりを備えた1.5 mの静的な隠された報酬ゾーンでの2日間のトレーニング。(A)2 mの仮想リニアトラックに沿って等間隔に配置された8つの位置からランダムに選択された、ラップごとに4つの報酬ゾーンの0日目のランダムな採餌。(写真左)30分間のセッションにおける空間ビン(5cm)あたりの平均舐め回数(上:ランダムな視覚刺激パネルを備えたVR廊下)。(右)このセッション中のラップあたりの各5cm空間ビンのリック数(ヒートマップで表されます)。(B)1日目、位置0.8〜1.2 mの単一の高コントラスト刺激を含む仮想トラックを使用して、1.5 mに単一の報酬ゾーン(トラック図の赤いボックス、上)を使用したトレーニングの初日(左)セッション全体の平均空間舐めカウント、動物が報酬ゾーンに近づくと舐めが増加することを示しています。(右)ラップあたりの空間舐めは、報酬前の領域での舐めの選択性の増加を示しています。(C)2日目、1日目と同じ隠された報酬タスクと仮想廊下から、同じマウスから。(写真左)空間ビンあたりの合計リック数は、プレリワードゾーン外のリックの減少を示しています。(右)2日目のラップあたりの空間舐めは、報酬ゾーンの前に舐めが増加し、他の場所で舐めが減少したことを示し、空間的に特異的な予測舐めの発達を示しています。これは、この動物が(手がかりのない)隠された報酬の場所を学習し、報酬が存在することを期待していない領域での労力(舐め)を最小限に抑える戦略を開発したことを示しています。この図の拡大版を表示するには、ここをクリックしてください。

行動の結果 マウスの数 マウスの割合
マウスが実行/なめなかった 1 14%
ランダム採餌のみ 2 29%
学習した隠れた報酬 4 57%
合計(N) 7

表1:VR空間学習行動パイロット結果。 生後4か月の男女のC57BL/6マウス7匹を、VRで空間的な隠れた報酬タスクを実行するように徐々に訓練しました。これらのマウスのうち、1匹のマウスは最初のトレーニング後に走ったり舐めたりしませんでしたが(7匹のマウスのうちの1匹、14%)、残りの6匹のマウスは、トレーニングのランダムな採餌ステップで車輪の上を走り、ランダムな空間報酬を求めてなめることを学習しました(7匹のマウスのうち6匹、86%)。ランダムな採餌行動を実行できた6匹のマウスのうち4匹は、その後、隠れた報酬タスクでの非合図報酬を見越して選択的に舐めることを学習しました(7匹のマウスのうち4匹、合計で57%、6匹のマウスのうち4匹、ランダムな採餌マウスの66%)が、2匹はそうしませんでした(7匹のマウスのうち2匹、 29%).

Subscription Required. Please recommend JoVE to your librarian.

Discussion

このマウス用のオープンソースVRシステムは、IDEシリアルモニターを使用して確認できる、ロータリーおよびビヘイビアESP32マイクロコントローラーとシングルボードコンピューター(手順2)の間でシリアル接続が適切に行われている場合にのみ機能します(手順2.4.5)。このプロトコルから成功した行動結果を得るために(ステップ4)、マウスは装置に慣れ、液体報酬のために車輪の上を快適に走らなければならない(ステップ4.3〜4.5)。ホームケージで自由摂取水を与えられたマウスは、報酬を求めて走ったり舐めたりせず(つまり、知覚された場所を示すために)、脱水状態のマウスは無気力で車輪の上を走らない可能性があるため、これには十分な(ただし過剰ではない)水分制限が必要です。水分制限なしでマウスの行動を動機付けるための代替方法があることも注目に値します24;ただし、ここではこれらのメソッドをテストしませんでした。トレーニング手順のために、最初に走らない動物は、添付のオプションのボタンを押すことによって実験者によってアドホック(すなわち、非空間的)水の報酬を与えられるか、または車輪を穏やかに動かして移動を促してもよい。ランダムな採餌行動を開発するには、走るが舐めないマウスは、走って報酬を舐めるまで非オペラント報酬(行動ESP32コード:isOperant = 0;、ステップ4.5.1)で実行する必要があり、その後、非オペラント報酬ゾーンとオペラント報酬ゾーンを交互に周回して実行することができます(altOpt=1; ステップ4.5.2)完全にオペラントランダム報酬ゾーンに移動する前に、オペラントラップで舐め始めるまで(ステップ4.5.3)。

空間学習の1つの形式(仮想線形トラック環境の隠れた報酬位置での条件付きリッキング)を引き出すことを目的とした基本的な一連の実験の完全な手順とサンプル結果を提供しましたが、Raspberry Pi用のpi3d Pythonパッケージを使用して、より複雑な視空間環境を提供するために、同じ基本的なハードウェアとソフトウェアのセットアップを変更することもできます。たとえば、このシステムは、可変長の廊下、複数のパターンと3Dオブジェクト、自然主義的な3D VR風景など、より複雑な迷路を組み込むことができます。さらに、水の報酬やその他の非視覚刺激を提供するための行動ソフトウェアは、主要な変数(動作ESP32コードの冒頭に提示)を変更するか、新しいタイプの空間イベントを同じコードに挿入することによって、他のトレーニングパラダイム用に変更できます。このVRセットアップまたはトラブルシューティングで他のタイプの行動実験を実装する方法について、ユーザーにアドバイスさせていただきます。

没入型VR環境は、臨床研究と動物研究の両方で、空間ナビゲーション678、報酬学習行動9および視覚25の根底にある神経メカニズムを研究するための用途の広いツールであることが証明されています。このアプローチの主な利点は、実験者が視覚的手がかりや特定の空間刺激(例えば、報酬および嗅覚、聴覚、または触覚刺激)などの文脈要素を厳密に制御できることであり、これは自由に動く動物がいる現実世界の環境では実用的ではない。ただし、現実世界の環境の使用と比較した場合、VR環境が海馬などの脳領域によってエンコードされる方法に違いが存在する可能性があることに注意してください26,27。この警告により、VR環境の使用により、実験者は注意深く制御された刺激で多数の行動試験を実行でき、空間ナビゲーションに対する異なる感覚要素の寄与を解離することができます。

カスタムVRセットアップを構築する複雑さは、多くの場合、エンジニアリングとコンピュータープログラミングの広範なバックグラウンドを必要とし、セットアップの時間を増やし、実験のためにマウスを訓練するために構築できる装置の数を制限する可能性があります。VRセットアップは、商用ベンダーからも入手できます。ただし、これらのソリューションは、ユーザーが新しい機能を実装したり、トレーニング/記録容量を複数のセットアップに拡張したりする場合は、高価で制限される可能性があります。ここに示されているオープンソースVRセットアップの推定価格帯は< $ 1,000(USD)です。ただし、トレーニング用の簡易バージョン(頭角調整用のゴニオメーターがないなど)を500<米ドルで作成できるため、マウスを大規模にトレーニングするための複数のセットアップを構築できます。コンポーネントのモジュラー配置により、VRを、以前に使用した空間嗅覚および触覚刺激を備えたトレッドミルシステムなど、行動制御のための他のシステムとの統合も可能になります20、したがって、VRと他の刺激モダリティは相互に排他的ではありません。

このオープンソースのVRシステムは、関連するハードウェア(ランニングホイール、プロジェクションスクリーン、ヘッド固定装置)、電子機器のセットアップ(シングルボードコンピューターとESP32マイクロコントローラー)、およびソフトウェア(VR GUIと動作コード)を備えており、頭を拘束された空間ナビゲーション中にパラメータ化された没入型VR環境をマウスに提供するための安価でコンパクトで使いやすいセットアップを提供します。次いで、この挙動は、空間学習中の神経活動を調べるために、ニューラルイメージングまたは電気生理学的記録と同期され得る(ステップ2.3.7)。VRと互換性のある実験手法は、空間学習行動のみから、ファイバー測光、ミニスコープイメージング、単一光子および多光子イメージング、および電気生理学的手法(ニューロピクセルや細胞内記録など)との組み合わせまで、幅広い範囲です。これらの記録技術のいくつかには頭部拘束が必要であるが、刺激提示の極めて正確な性質および挙動のステレオタイプ的性質は、ミニスコープイメージングおよびファイバー測光など、頭部固定を必要としない他の技術にも有用であり得る。ただし、リックを検出するための静電容量センサーベースのソリューションは、電気生理学的トレースに大きなノイズをもたらす可能性があることに注意してください。このようなアーチファクトを回避するには、光学的またはその他の(機械的など)、センサーベースのソリューションをリック検出用に実装する必要があります。

VRシステムの今後の改善は、プロジェクトのGitHubページ(https://github.com/GergelyTuri/HallPassVR)にアップロードされるため、ユーザーはこのページを定期的にチェックして更新を確認する必要があります。たとえば、マイクロコントローラとシングルボードコンピュータ間のハードワイヤードシリアル接続を、この設計ですでに使用されているESP32マイクロコントローラにネイティブなBluetooth機能に置き換える過程にあります。さらに、HallPassVR GUIをアップグレードして、各行動セッションの異なるパスを指定できるようにして、異なるラップ上の主要なランドマーク視覚刺激の異なる位置を含めることを計画しています。これにより、空間学習中の空間のニューラルエンコーディングに対する特定の視覚的および文脈的特徴の影響を解離するための柔軟性が高まります。

Subscription Required. Please recommend JoVE to your librarian.

Disclosures

クレイ・レースフィールドは OpenMaze.org の創設者兼メンテナであり、このプロトコルで使用されるOMwSmall PCBの設計を無料でダウンロードできます。

Acknowledgments

この原稿のプロトコルを開発する際の議論と提案について、HarveyラボのNoah Pettitに感謝します。この研究は、NINDS R56NS128177(R.H.、C.L.)およびNIMH R01MH068542(RH)に加えて、BBRF若手研究者賞およびNIMH 1R21MH122965(G.F.T.)によってサポートされました。

Materials

Name Company Catalog Number Comments
1/4 " diam aluminum rod McMaster-Carr 9062K26 3" in length for wheel axle
1/4"-20 cap screws, 3/4" long (x2) Amazon.com B09ZNMR41V for affixing head post holders to optical posts
2"x7" T-slotted aluminum bar (x2) 8020.net 1020 wheel/animal mounting frame
6" diam, 3" wide acrylic cylinder (1/8" thick) Canal Plastics 33210090702 Running wheel (custom width cut at canalplastics.com)
8-32 x 1/2" socket head screws McMaster-Carr 92196A194 fastening head post holder to optical post 
Adjustable arm (14") Amazon.com B087BZGKSL to hold/adjust lick spout
Analysis code (MATLAB) custom written file at github.com/GergelyTuri/HallPassVR/software/Analysis code
Axle mounting flange, 1/4" ID Pololu 1993 for mounting wheel to axle
Ball bearing (5/8" OD, 1/4" ID, x2) McMaster-Carr 57155K324 for mounting wheel axle to frame
Behavior ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Behavior board
Black opaque matte acrylic sheets (1/4" thick) Canal Plastics 32918353422 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Clear acrylic sheet (1/4" thick) Canal Plastics 32920770574 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR wheel assembly
ESP32 devKitC v4 (x2) Amazon.com B086YS4Z3F microcontroller for behavior and rotary encoder
ESP32 shield OpenMaze.org OMwSmall description at www.openmaze.org (https://claylacefield.wixsite.com/openmazehome/copy-of-om2shield). ZIP gerber files at: https://github.com/claylacefield/OpenMaze/tree/master/OM_PCBs
Fasteners and brackets  8020.net 4138, 3382,3280 for wheel frame mounts
goniometers Edmund Optics 66-526, 66-527 optional for behavior. Fine tuning head for imaging
HallPassVR python code custom written file at github.com/GergelyTuri/HallPassVR/software/HallPassVR
Head post holder custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/Headpost Clamp
LED projector Texas Instruments DLPDLCR230NPEVM or other small LED projector
Lick spout VWR 20068-638 (or ~16 G metal hypodermic tubing)
M 2.5 x 6 set screws McMaster-Carr 92015A097 securing head post 
Matte white diffusion paper Amazon.com screen material
Metal headposts custom design 3D design file at github.com/GergelyTuri/HallPassVR/hardware/VR head mount/head post designs
Miscellenous tubing and tubing adapters (1/16" ID) for constructing the water line
Optical breadboard Thorlabs as per user's requirements
Optical posts, 1/2" diam (2x) Thorlabs TR4 for head fixation setup
Processing code custom written file at github.com/GergelyTuri/HallPassVR/software/Processing code
Raspberry Pi 4B raspberry.com, adafruit.com Single-board computer for rendering of HallPassVR envir.
Right angle clamp Thorlabs RA90 for head fixation setup
Rotary encoder (quadrature, 256 step) DigiKey ENS1J-B28-L00256L to measure wheel rotation
Rotary encoder ESP32 code custom written file at github.com/GergelyTuri/HallPassVR/software/Arduino code/Rotary encoder
SCIGRIP 10315 acrylic cement Amazon.com
Shaft coupler McMaster-Carr 9861T426 to couple rotary encoder shaft with axle
Silver mirror acrylic sheets Canal Plastics 32913817934 laser cut file at github.com/GergelyTuri/HallPassVR/hardware/VR screen assembly
Solenoid valve Parker 003-0137-900 to administer water rewards

DOWNLOAD MATERIALS LIST

References

  1. Lisman, J., et al. Viewpoints: How the hippocampus contributes to memory, navigation and cognition. Nature Neuroscience. 20 (11), 1434-1447 (2017).
  2. Buzsaki, G., Moser, E. I. Memory, navigation and theta rhythm in the hippocampal-entorhinal system. Nature Neuroscience. 16 (2), 130-138 (2013).
  3. O'Keefe, J., Dostrovsky, J. The hippocampus as a spatial map. Preliminary evidence from unit activity in the freely-moving rat. Brain Research. 34 (1), 171-175 (1971).
  4. O'Keefe, J. Place units in the hippocampus of the freely moving rat. Experimental Neurology. 51 (1), 78-109 (1976).
  5. Fyhn, M., Molden, S., Witter, M. P., Moser, E. I., Moser, M. B. Spatial representation in the entorhinal cortex. Science. 305 (5688), 1258-1264 (2004).
  6. Letzkus, J. J., et al. A disinhibitory microcircuit for associative fear learning in the auditory cortex. Nature. 480 (7377), 331-335 (2011).
  7. Lacefield, C. O., Pnevmatikakis, E. A., Paninski, L., Bruno, R. M. Reinforcement learning recruits somata and apical dendrites across layers of primary sensory cortex. Cell Reports. 26 (8), 2000-2008 (2019).
  8. Dombeck, D. A., Harvey, C. D., Tian, L., Looger, L. L., Tank, D. W. Functional imaging of hippocampal place cells at cellular resolution during virtual navigation. Nature Neuroscience. 13 (11), 1433-1440 (2010).
  9. Gauthier, J. L., Tank, D. W. A dedicated population for reward coding in the hippocampus. Neuron. 99 (1), 179-193 (2018).
  10. Rickgauer, J. P., Deisseroth, K., Tank, D. W. Simultaneous cellular-resolution optical perturbation and imaging of place cell firing fields. Nature Neuroscience. 17 (12), 1816-1824 (2014).
  11. Yadav, N., et al. Prefrontal feature representations drive memory recall. Nature. 608 (7921), 153-160 (2022).
  12. Priestley, J. B., Bowler, J. C., Rolotti, S. V., Fusi, S., Losonczy, A. Signatures of rapid plasticity in hippocampal CA1 representations during novel experiences. Neuron. 110 (12), 1978-1992 (2022).
  13. Heys, J. G., Rangarajan, K. V., Dombeck, D. A. The functional micro-organization of grid cells revealed by cellular-resolution imaging. Neuron. 84 (5), 1079-1090 (2014).
  14. Harvey, C. D., Collman, F., Dombeck, D. A., Tank, D. W. Intracellular dynamics of hippocampal place cells during virtual navigation. Nature. 461 (7266), 941-946 (2009).
  15. Pettit, N., et al. Harvey Lab Mouse VR. , Available from: https://github.com/Harvey/Lab/mouseVR (2021).
  16. Pettit, N. L., Yap, E. L., Greenberg, M. E., Harvey, C. D. Fos ensembles encode and shape stable spatial maps in the hippocampus. Nature. 609 (7926), 327-334 (2022).
  17. Turi, G. F., et al. Vasoactive intestinal polypeptide-expressing interneurons in the hippocampus support goal-oriented spatial learning. Neuron. 101 (6), 1150-1165 (2019).
  18. Ulivi, A. F., et al. Longitudinal two-photon imaging of dorsal hippocampal CA1 in live mice. Journal of Visual Experiments. (148), e59598 (2019).
  19. Wang, Y., Zhu, D., Liu, B., Piatkevich, K. D. Craniotomy procedure for visualizing neuronal activities in hippocampus of behaving mice. Journal of Visual Experiments. (173), e62266 (2021).
  20. Tuncdemir, S. N., et al. Parallel processing of sensory cue and spatial information in the dentate gyrus. Cell Reports. 38 (3), 110257 (2022).
  21. Dombeck, D. A., Khabbaz, A. N., Collman, F., Adelman, T. L., Tank, D. W. Imaging large-scale neural activity with cellular resolution in awake, mobile mice. Neuron. 56 (1), 43-57 (2007).
  22. Guo, Z. V., et al. Procedures for behavioral experiments in head-fixed mice. PLoS One. 9 (2), 88678 (2014).
  23. Jordan, J. T., Gonçalves, J. T. Silencing of hippocampal synaptic transmission impairs spatial reward search on a head-fixed tactile treadmill task. bioRxiv. , (2021).
  24. Urai, A. E., et al. Citric acid water as an alternative to water restriction for high-yield mouse behavior. eNeuro. 8 (1), (2021).
  25. Saleem, A. B., Diamanti, E. M., Fournier, J., Harris, K. D., Carandini, M. Coherent encoding of subjective spatial position in visual cortex and hippocampus. Nature. 562 (7725), 124-127 (2018).
  26. Ravassard, P., et al. Multisensory control of hippocampal spatiotemporal selectivity. Science. 340 (6138), 1342-1346 (2013).
  27. Aghajan, Z. M., et al. Impaired spatial selectivity and intact phase precession in two-dimensional virtual reality. Nature Neuroscience. 18 (1), 121-128 (2015).

Tags

神経科学、第193号、
頭部拘束マウスの空間学習計測のためのオープンソースバーチャルリアリティシステム
Play Video
PDF DOI DOWNLOAD MATERIALS LIST

Cite this Article

Lacefield, C., Cai, H., Ho, H.,More

Lacefield, C., Cai, H., Ho, H., Dias, C., Chung, H., Hen, R., Turi, G. F. An Open-Source Virtual Reality System for the Measurement of Spatial Learning in Head-Restrained Mice. J. Vis. Exp. (193), e64863, doi:10.3791/64863 (2023).

Less
Copy Citation Download Citation Reprints and Permissions
View Video

Get cutting-edge science videos from JoVE sent straight to your inbox every month.

Waiting X
Simple Hit Counter