-
Emiru Tsunoo, Yuki Saito, Wataru Nakata, and Hiroshi Saruwatari,
"Causal speech enhancement with predicting semantics based on quantized self-supervised learning features,"
Proc. ICASSP, 5 pages, Hyderabad, India, Apr. 2025. (ACCEPTED)
-
Kazuki Yamauchi, Wataru Nakata, Yuki Saito, and Hiroshi Saruwatari,
"Decoding strategy with perceptual rating prediction for language model-based text-to-speech synthesis,"
Proc. NeurIPS Audio Imagination Workshop, pp. xxxx--xxxx, Vancouver, Canada, Dec. 2024. (ACCEPTED)
-
Wataru Nakata, Takaaki Saeki, Yuki Saito, Shinnosuke Takamichi, and Hiroshi Saruwatari,
"NecoBERT: Self-supervised learning model trained by masked language modeling on rich acoustic features derived from neural audio codec,"
Proc. APSIPA ASC, pp. xxxx--xxxx, Macau, China, Dec. 2024. (ACCEPTED)
-
Yuto Ishikawa, Osamu Take, Tomohiko Nakamura, Norihiro Takamune, Yuki Saito, Shinnosuke Takamichi, and Hiroshi Saruwatari,
"Real-time noise estimation for Lombard-effect speech synthesis in human--avatar dialogue systems,"
Proc. APSIPA ASC, pp. xxxx--xxxx, Macau, China, Dec. 2024. (ACCEPTED)
-
Kaito Baba, Wataru Nakata, Yuki Saito, and Hiroshi Saruwatari,
"The T05 system for The VoiceMOS Challenge 2024: Transfer learning from deep image classifier to naturalness MOS prediction of high-quality synthetic speech,"
Proc. SLT, pp. xxxx--xxxx, Macau, China, Dec. 2024. (ACCEPTED)
-
Kazuki Yamauchi, Yuki Saito, and Hiroshi Saruwatari,
"Cross-dialect text-to-speech in pitch-accent language incorporating multi-dialect phoneme-level BERT,"
Proc. SLT, pp. xxxx--xxxx, Macau, China, Dec. 2024. (ACCEPTED)
-
Dong Yang, Tomoki Koriyama, and Yuki Saito,
"Frame-wise breath detection with self-training: An exploration of enhancing breath naturalness in text-to-speech,"
Proc. INTERSPEECH, pp. 4928--4932, Kos, Greece, Sep. 2024. (PDF, Poster) (Shortlisted for the ISCA Best Student Paper Award 2024)
-
Takuto Igarashi, Yuki Saito, Kentaro Seki, Shinnosuke Takamichi, Ryuichi Yamamoto, Kentaro Tachibana, and Hiroshi Saruwatari,
"Noise-robust voice conversion by conditional denoising training using latent variables of recording quality and environment,"
Proc. INTERSPEECH, pp. 2750--2754, Kos, Greece, Sep. 2024. (PDF, Poster)
-
Yuki Saito, Takuto Igarashi, Kentaro Seki, Shinnosuke Takamichi, Ryuichi Yamamoto, Kentaro Tachibana, and Hiroshi Saruwatari,
"SRC4VC: Smartphone-recorded corpus for voice conversion benchmark,"
Proc. INTERSPEECH, pp. 1825--1829, Kos, Greece, Sep. 2024. (PDF, Poster)
-
Kentaro Seki, Shinnosuke Takamichi, Norihiro Takamune, Yuki Saito, Kanami Imamura, and Hiroshi Saruwatari,
"Spatial voice conversion: Voice conversion preserving spatial information and non-target signals,"
Proc. INTERSPEECH, pp. 177--181, Kos, Greece, Sep. 2024. (PDF, Slide)
-
Kazuki Yamauchi, Yusuke Ijima, and Yuki Saito,
"StyleCap: Automatic speaking-style captioning from speech based on speech and language self-supervised learning models,"
Proc. ICASSP, 5 pages, Seoul, South Korea, Apr. 2024. (PDF, Poster)
-
Aya Watanabe, Shinnosuke Takamichi, Yuki Saito, Wataru Nakata, Detai Xin, and Hiroshi Saruwatari,
"Coco-Nut: Corpus of Japanese utterances and voice characteristics description for prompt-based control,"
Proc. ASRU, Taipei, Taiwan, pp. 781--788, Dec. 2023. (PDF, Project page, Poster)
-
Ryunosuke Hirai, Yuki Saito, and Hiroshi Saruwatari,
"Federated learning for human-in-the-loop many-to-many voice conversion,"
Proc. The 12th ISCA SSW, 6 pages, Grenoble, France, Aug. 2023. (OpenReview)
-
Yuki Saito, Eiji Iimori, Shinnosuke Takamichi, Kentaro Tachibana, and Hiroshi Saruwatari,
"CALLS: Japanese empathetic dialogue speech corpus of complaint handling and attentive listening in customer center,"
Proc. INTERSPEECH, pp. 5561--5565, Dublin, Ireland, Aug. 2023. (Demo, Poster) (Travel Grant Award for INTERSPEECH2023)
-
Yota Ueda, Shinnosuke Takamichi, Yuki Saito, Norihiro Takamune, and Hiroshi Saruwatari,
"HumanDiffusion: diffusion model using perceptual gradients,"
Proc. INTERSPEECH, pp. 4264--4268, Dublin, Ireland, Aug. 2023. Poster
-
Yuki Saito, Shinnosuke Takamichi, Eiji Iimori, Kentaro Tachibana, and Hiroshi Saruwatari,
"ChatGPT-EDSS: empathetic dialogue speech synthesis trained from ChatGPT-derived context word embeddings,"
Proc. INTERSPEECH, pp. 3048--3052, Dublin, Ireland, Aug. 2023. (Demo, Slide) (Travel Grant Award for INTERSPEECH2023)
-
Dong Yang, Tomoki Koriyama, Yuki Saito, Takaaki Saeki, Detai Xin, and Hiroshi Saruwatari,
"Duration-aware pause insertion using pre-trained language model for multi-speaker text-to-speech,"
Proc. ICASSP, 5 pages, Rhodes Island, Greece, Jun. 2023. (Demo)
-
Aya Watanabe, Shinnosuke Takamichi, Yuki Saito, Detai Xin, and Hiroshi Saruwatari,
"Mid-attribute speaker generation using optimal-transport-based interpolation of Gaussian mixture models,"
Proc. ICASSP, 5 pages, Rhodes Island, Greece, Jun. 2023. (Demo)
-
Kazuki Fujii, Yuki Saito, and Hiroshi Saruwatari,
"Adaptive end-to-end text-to-speech synthesis based on error correction feedback from humans,"
Proc. APSIPA ASC, pp. 1699--1674, Chiang Mai, Thailand, Nov. 2022. (PDF, Slide)
-
Yusuke Nakai, Yuki Saito, Kenta Udagawa, and Hiroshi Saruwatari,
"Multi-task adversarial training algorithm for multi-speaker neural text-to-speech,"
Proc. APSIPA ASC, pp. 744--749, Chiang Mai, Thailand, Nov. 2022. (PDF, Slide)
-
Yuki Saito, Yuto Nishimura, Shinnosuke Takamichi, Kentaro Tachibana, and Hiroshi Saruwatari,
"STUDIES: Corpus of Japanese Empathetic Dialogue Speech Towards Friendly Voice Agent,"
Proc. INTERSPEECH, pp. 5155--5159, Incheon, South Korea, Sep. 2022. (PDF, Speech samples, Poster)
-
Wataru Nakata, Tomoki Koriyama, Shinnosuke Takamichi, Yuki Saito, Yusuke Ijima, Ryo Masumura, and Hiroshi Saruwatari,
"Predicting VQVAE-based Character Acting Style from Quotation-Annotated Text for Audiobook Speech Synthesis,"
Proc. INTERSPEECH, pp. 4551--4555, Incheon, South Korea, Sep. 2022. (PDF, Speech samples, Poster)
-
Yuto Nishimura, Yuki Saito, Shinnosuke Takamichi, Kentaro Tachibana, and Hiroshi Saruwatari,
"Acoustic Modeling for End-to-End Empathetic Dialogue Speech Synthesis Using Linguistic and Prosodic Contexts of Dialogue History,"
Proc. INTERSPEECH, pp. 3373--3377, Incheon, South Korea, Sep. 2022. (Google Travel Grants for Students in East Asia) (PDF, Speech samples, Slide)
-
Kenta Udagawa, Yuki Saito, and Hiroshi Saruwatari,
"Human-in-the-loop Speaker Adaptation for DNN-based Multi-speaker TTS,"
Proc. INTERSPEECH, pp. 2968--2972, Incheon, South Korea, Sep. 2022. (PDF, Speech samples, Poster)
-
Xuan Luo, Shinnosuke Takamichi, Tomoki Koriyama, Yuki Saito, and Hiroshi Saruwatari,
"Emotion-controllable speech synthesis using emotion soft labels and fine-grained prosody factors,"
Proc. APSIPA ASC, pp. 794--799, Tokyo, Japan, Dec. 2021. (PDF, Speech samples)
-
Detai Xin, Yuki Saito, Shinnosuke Takamichi, Tomoki Koriyama, and Hiroshi Saruwatari,
"Cross-lingual speaker adaptation using domain adaptation and speaker consistency loss for text-to-speech synthesis,"
Proc. INTERSPEECH, pp. 1614--1618, Brno, Czech Republic, Sep. 2021. (PDF)
-
Yota Ueda, Kazuki Fujii, Yuki Saito, Shinnosuke Takamichi, Yukino Baba, and Hiroshi Saruwatari,
"HumanACGAN: conditional generative adversarial network with human-based auxiliary classifier and its evaluation in phoneme perception,"
Proc. ICASSP, pp. 6468--6472, Toronto, Canada, Jun. 2021. (PDF, arXiv preprint, Poster)
-
Yuki Yamashita, Tomoki Koriyama, Yuki Saito, Shinnosuke Takamichi, Yusuke Ijima, Ryo Masumura, and Hiroshi Saruwatari,
"Investigating effective additional contextual factors in DNN-based spontaneous speech synthesis,"
Proc. INTERSPEECH, pp. 3201--3205, Shanghai, China, Oct. 2020. (PDF)
-
Detai Xin, Yuki Saito, Shinnosuke Takamichi, Tomoki Koriyama, and Hiroshi Saruwatari,
"Cross-lingual text-to-speech synthesis via domain adaptation and perceptual similarity regression in speaker space,"
Proc. INTERSPEECH, pp. 2947--2951, Shanghai, China, Oct. 2020. (PDF) (Speech samples)
-
Shunsuke Goto, Kotaro Ohnishi, Yuki Saito, Kentaro Tachibana, and Koichiro Mori,
"Face2Speech: towards multi-speaker text-to-speech synthesis using an embedding vector predicted from a face image,"
Proc. INTERSPEECH, pp. 1321--1325, Shanghai, China, Oct. 2020. (PDF) (Demo)
-
Takaaki Saeki, Yuki Saito, Shinnosuke Takamichi, and Hiroshi Saruwatari,
"Real-time, full-band, online DNN-based voice conversion system using a single CPU,"
Proc. INTERSPEECH, pp. 1021--1022, Shanghai, China, Oct. 2020. (PDF, Video)
-
Yuki Saito, Shinnosuke Takamichi, and Hiroshi Saruwatari,
"SMASH corpus: a spontaneous speech corpus recording third-person audio commentaries on gameplay,"
Proc. LREC, pp. 6573--6579, Marseille, France, May 2020. (PDF)
-
Yuki Yamashita, Tomoki Koriyama, Yuki Saito, Shinnosuke Takamichi, Yusuke Ijima, Ryo Masumura, and Hiroshi Saruwatari,
"DNN-based speech synthesis using abundant tags of spontaneous speech corpus,"
Proc. LREC, pp. 6440--6445, Marseille, France, May 2020. (PDF)
-
Kazuki Fujii, Yuki Saito, Shinnosuke Takamichi, Yukino Baba, and Hiroshi Saruwatari,
"HumanGAN: generative adversarial network with human-based discriminator and its evaluation in speech perception modeling,"
Proc. ICASSP, pp. 6239--6243, Barcelona, Spain, May 2020. (Main contribution paper for FujiSankei Business i Awards, Main contribution paper for National Institute of Technology Student Award) (PDF, arXiv preprint, Video)
-
Takaaki Saeki, Yuki Saito, Shinnosuke Takamichi, and Hiroshi Saruwatari,
"Lifter training and sub-band modeling for computationally efficient and high-quality voice conversion using spectral differentials,"
Proc. ICASSP, pp. 7784--7788, Barcelona, Spain, May 2020. (PDF, arXiv preprint, Video)
-
Yuki Saito, Shinnosuke Takamichi, and Hiroshi Saruwatari,
"DNN-based speaker embedding using subjective inter-speaker similarity for multi-speaker modeling in speech synthesis,"
Proc. The 10th ISCA SSW, pp. 51--56, Vienna, Austria, Sep. 2019. (PDF, arXiv preprint, Poster)
-
Taiki Nakamura, Yuki Saito, Shinnosuke Takamichi, Yusuke Ijima, and Hiroshi Saruwatari,
"V2S attack: building DNN-based voice conversion from automatic speaker verification,"
Proc. The 10th ISCA SSW, pp. 161--165, Vienna, Austria, Sep. 2019. (PDF, arXiv preprint, Poster)
-
Hiroki Tamaru, Yuki Saito, Shinnosuke Takamichi, Tomoki Koriyama, and Hiroshi Saruwatari,
"Generative moment matching network-based random modulation post-filter for DNN-based singing voice synthesis and neural double-tracking,"
Proc. ICASSP, pp. 7070--7074, Brighton, United Kingdom, May 2019. (PDF, arXiv preprint, Poster, Demo)
-
Masakazu Une, Yuki Saito, Shinnosuke Takamichi, Daichi Kitamura, Ryoichi Miyazaki and Hiroshi Saruwatari,
"Generative approach using the noise generation models for DNN-based speech synthesis trained from noisy speech,"
Proc. APSIPA ASC, pp. 99--103, Hawaii, U.S.A., Nov. 2018. (Invited Special Session),
(PDF, Slide)
-
Shinnosuke Takamichi, Yuki Saito, Norihiro Takamune, Daichi Kitamura, and Hiroshi Saruwatari,
"Phase reconstruction from amplitude spectrograms based on von-Mises-distribution deep neural network,"
Proc. IWAENC, pp. 286--290, Tokyo, Japan, Sep. 2018.
(PDF, Poster)
-
Yuki Saito, Yusuke Ijima, Kyosuke Nishida, and Shinnosuke Takamichi,
"Non-parallel voice conversion using variational autoencoders conditioned by phonetic posteriorgrams and d-vectors,"
Proc. ICASSP, pp. 5274--5278, Alberta, Canada, Apr. 2018. (Grants for Researchers Attending International Conferences from NEC C&C, Outstanding Paper Award for Young C&C Researchers) (PDF, Poster)
-
Yuki Saito, Shinnosuke Takamichi, and Hiroshi Saruwatari,
"Text-to-speech synthesis using STFT spectra based on low-/multi-resolution generative adversarial networks,"
Proc. ICASSP, pp. 5299--5303, Alberta, Canada, Apr. 2018. (PDF, Poster)
-
Hiroyuki Miyoshi, Yuki Saito, Shinnosuke Takamichi, and Hiroshi Saruwatari,
"Voice conversion using sequence-to-sequence learning of context posterior probabilities,"
Proc. INTERSPEECH, pp. 1268--1272, Stockholm, Sweden, Aug. 2017. (PDF, Slide, Speech samples)
-
Yuki Saito, Shinnosuke Takamichi, and Hiroshi Saruwatari,
"Training algorithm to deceive anti-spoofing verification for DNN-based speech synthesis,"
Proc. ICASSP, pp. 4900--4904, New Orleans, U.S.A., Mar. 2017. (Spoken Language Processing Student Grant of ICASSP 2017), (PDF, Slide)
-
Yuki Saito, and Hiroshi Tenmoto,
"Construction of highly interpretable classification rule based on linear SVM,"
Proc. ISTS, Taipei, Taiwan, Nov. 2014.
-
高野 大成, 岡本 悠希, 齋藤 佑樹,
"Text-to-audioにおける評価指標CLAP-Scoreの性能分析,"
言語処理若手シンポジウム (YANS), 2024年9月. (Poster) (YANSシンポジウム スポンサー賞 (株式会社IVRy賞))
-
山内 一輝, 中田 亘, 齋藤 佑樹, 猿渡 洋,
"離散音声トークン生成によるテキスト音声合成のための音声主観評価値予測に基づくdecoding戦略,"
情報処理学会研究報告, 2024-SLP-152, No. 14, pp. 1--6, 2024年6月. (PDF, Poster) (音学シンポジウム2024 優秀発表賞)
-
Wataru Nakata*, Kazuki Yamauchi*, Dong Yang, Hiroaki Hyodo, and Yuki Saito,
"UTDUSS: UTokyo-SaruLab System for Interspeech2024 Speech Processing Using Discrete Speech Unit Challenge,"
Technical Report for Interspeech2024 Speech Processing Using Discrete Speech Unit Challenge, 5 pages, Mar. 2024. (arXiv, *: equal contribution) (Ranked 1st in TTS (Acoustic+Vocoder) track, Leaderboard)
-
山内 一輝, 齋藤 佑樹, 猿渡 洋,
"VQ-VAEに基づく解釈可能なアクセント潜在変数を用いた多方言音声合成,"
電子情報通信学会研究報告, SP2023-80, Vol. 123, No. 403, pp.220--225, 2024年3月. (2024年 SP研究会 学生ポスター賞) (PDF, Poster)
-
織田 悠希, 山内 一輝, 齋藤 佑樹, 猿渡 洋,
"クラウドソーシングで収集した方言アクセントラベルに基づく End-to-End 日本語音声合成の方言適応,"
電子情報通信学会研究報告, Vol. 123, No. 403, 2024年3月.
-
齋藤 佑樹,五十嵐 琢斗, 関 健太郎, 高道 慎之介, 山本 龍一, 橘 健太郎, 猿渡 洋,
"SRC4VCデータセット:多話者音声変換モデルのベンチマークを目的とした実デバイス収録音声コーパス,"
電子情報通信学会研究報告, Vol. 123, No. 403, 2024年3月. (Slide)
-
五十嵐 琢斗, 齋藤 佑樹, 関 健太郎, 高道 慎之介, 山本 龍一, 橘 健太郎, 猿渡 洋,
"音声品質と音響環境の潜在変数で条件付けたDenoising Trainingによるノイズロバスト音声変換,"
電子情報通信学会研究報告, SP2023-45, Vol. 123, No. 403, pp. 13--18, 2024年3月. (PDF)
-
岡本 美柚, 関 健太郎, 高道 慎之介, 齋藤 佑樹, 伊藤 貴之,
"ImTTS:印象推定の可視化を用いた多話者音声合成システム,"
NICOGRAPH 2023, 2 pages, P-9, 2023年12月. (査読あり)
-
齋藤 佑樹, 高道 慎之介, 飯森 栄治, 橘 健太郎, 猿渡 洋,
"ChatGPT-EDSS: ChatGPT由来のContext Word Embeddingから学習される共感的対話音声合成モデル,"
情報処理学会研究報告, 2023-SLP-147, No. 6, pp. 1--6, 2023年6月. (PDF, Poster) (音学シンポジウム2023 優秀発表賞)
-
熊田 順一, 齋藤 佑樹, 高道 慎之介, 渡邊 亞椰, 丹治 尚子, 長野 瑞生, 井島 勇祐, 猿渡 洋,
"睡眠を誘発する音声刺激の生成に向けた分析と評価,"
情報処理学会研究報告, 2023-SLP-147, No. 5, pp. 1--5, 2023年6月. (PDF, Poster)
-
渡邊 亞椰, 高道 慎之介, 齋藤 佑樹, 猿渡 洋,
"自由記述文による声質制御に向けたin-the-wild文データ収集法,"
電子情報通信学会研究報告, NLC2022-29, Vol. 122, No. 449, pp.55-60, 2023年3月. (PDF)
-
齋藤 佑樹, 飯森 栄治, 高道 慎之介, 橘 健太郎, 猿渡 洋,
"多ドメイン共感的対話音声合成に向けた音声コーパスの構築,"
電子情報通信学会研究報告, Vol. 122, No. 389, 2023年3月. (Slide)
-
平井 龍之介, 齋藤 佑樹, 猿渡 洋,
"Fed-StarGANv2-VC:連合学習を用いた多対多声質変換,"
情報処理学会研究報告, 2023-SLP-146, No. 11, pp. 1--6, 2023年3月.(2023年度情報処理学会 音声言語情報処理研究会 企業賞 (Fairy Devices賞)) (PDF, Slide)
-
齋藤 佑樹, 佐藤 宏,
"国際会議INTERSPEECH2022参加報告,"
情報処理学会研究報告, 2022-SLP-144, No. 14, p. 1, 2022年11月.
-
西邑 勇人, 齋藤 佑樹, 高道 慎之介, 橘 健太郎, 猿渡 洋,
"対話履歴の韻律情報を考慮した共感的対話音声合成,"
情報処理学会研究報告, 2022-SLP-140, No. 16, pp. 1--6, 2022年3月. (PDF, Speech samples, Slide)
-
仲井 佑友輔, 宇田川 健太, 齋藤 佑樹, 猿渡 洋,
"多話者音声合成のためのAdversarial Regularizerを考慮した学習アルゴリズム,"
電子情報通信学会研究報告, SP2021-57, Vol. 121, No. 385, pp. 50--55, 2022年3月. (PDF, Speech samples, Slide)
-
中田 亘, 郡山 知樹, 高道 慎之介, 齋藤 佑樹, 井島 勇祐, 増村 亮, 猿渡 洋,
"VQVAEによって獲得されたキャラクター演技スタイルに基づく多話者オーディオブック音声合成,"
電子情報通信学会研究報告, SP2021-47, Vol. 121, No. 282, pp. 42--47, 2021年12月. (PDF, Slide, Speech samples)
-
藤井 一貴, 齋藤 佑樹, 猿渡 洋,
"韻律情報で条件付けされた非自己回帰型End-to-End 日本語音声合成の検討,"
情報処理学会研究報告, 2021-SLP-138, No. 16, pp. 1--6, 2021年10月. (PDF, Slide)
-
宇田川 健太, 齋藤 佑樹, 猿渡 洋,
"人間の知覚評価フィードバックによる音声合成の話者適応,"
電子情報通信学会研究報告, SP2021-33, Vol. 121, No. 202, pp. 46--51, 2021年10月. (PDF, Slide, Speech samples)
-
倉田 将希, 高道 慎之介, 佐伯 高明, 荒川 陸, 齋藤 佑樹, 樋口 啓太, 猿渡 洋,
"リアルタイムDNN音声変換フィードバックによるキャラクタ性の獲得手法,"
情報処理学会研究報告, 2021-SLP-136, No. 31, pp. 1--6, 2021年3月. (PDF, Slide)
-
齋藤 佑樹, 高道 慎之介, 猿渡 洋,
"主観的話者間類似度を考慮したDNN話者埋め込みのためのActive Learning,"
情報処理学会研究報告, 2021-SLP-136, No. 30, pp. 1--6, 2021年3月. (2021年度情報処理学会 音声言語情報処理研究会 企業賞 (Yahoo!Japan賞)) (PDF, Slide)
-
藤井 一貴, 齋藤 佑樹, 高道 慎之介, 馬場 雪乃, 猿渡 洋,
"人間GAN:人間による知覚評価に基づく敵対的生成ネットワークと生成音声の自然性評価,"
電子情報通信学会研究報告, SP2020-06, Vol. 120, No. 57, pp. 15--20, 2020年6月. (音学シンポジウム 学生ポスター賞)(PDF)
-
内藤 悟嗣, 齋藤 佑樹, 高道 慎之介, 齋藤 康之, 猿渡 洋,
"VOCALOID曲の歌唱におけるブレス位置の自動推定,"
情報処理学会研究報告, 2020-MUS-127, No. 33, pp. 1--6, 2020年6月. (PDF)
-
山下 優樹, 郡山 知樹, 齋藤 佑樹, 高道 慎之介, 井島 勇祐, 増村 亮, 猿渡 洋,
"DNN に基づく話し言葉音声合成における追加コンテキストの効果,"
電子情報通信学会研究報告, SP2019-61, Vol. 119, No. 441, pp. 65--70, 2020年3月. (PDF)
-
佐伯 高明, 齋藤 佑樹, 高道 慎之介, 猿渡 洋,
"差分スペクトル法に基づくDNN声質変換のためのリフタ学習およびサブバンド処理,"
情報処理学会研究報告, 2020-SLP-131, No. 2, pp. 1--6, 2020年2月. (PDF, Slide)
-
藤井 一貴, 齋藤 佑樹, 高道 慎之介, 馬場 雪乃, 猿渡 洋,
"人間GAN:人間による知覚的識別に基づく敵対的生成ネットワーク,"
情報論的学習理論ワークショップ (IBIS) 2019, 2-037, 2019年11月. (Poster)
-
中村 泰貴, 齋藤 佑樹, 高道 慎之介, 井島 勇祐, 猿渡 洋,
"話者V2S攻撃:話者認証から構築される声質変換とその音声なりすまし可能性の評価,"
コンピュータセキュリティシンポジウム (CSS) 2019, 2E1-2, pp. 697--703, 2019年10月. (PDF, Slide)
-
高道 慎之介, 三井 健太郎, 齋藤 佑樹, 郡山 知樹, 丹治 尚子, 猿渡 洋,
"JVS:フリーの日本語多数話者音声コーパス,"
情報処理学会研究報告, 2019-SLP-129, No. 1, pp. 1--6, 2019年10月. (PDF, Slide)
-
田丸 浩気, 齋藤 佑樹, 高道 慎之介, 郡山 知樹, 猿渡 洋,
"モーメントマッチングに基づくDNN合成歌声のランダム変調ポストフィルタとニューラルダブルトラッキングへの応用,"
情報処理学会研究報告, 2018-SLP-125, No. 1, pp. 1--6, 2018年12月. (PDF, Slide)
-
溝口 聡, 齋藤 佑樹, 高道 慎之介, 猿渡 洋,
"カートシスマッチングに基づく低ミュージカルノイズDNN音声強調の評価,"
電子情報通信学会研究報告, EA2018-66, Vol. 118, No. 312, pp. 19--24, 2018年11月. (PDF, Poster)
-
高道 慎之介, 齋藤 佑樹, 高宗 典玄, 北村 大地, 猿渡 洋,
"von Mises分布DNNに基づく振幅スペクトログラムからの位相復元,"
情報処理学会研究報告, 2018-SLP-122, No. 1, pp. 1--6, 2018年6月. (音学シンポジウム優秀賞, 情報処理学会 山下記念研究賞) (PDF, Poster)
-
齋藤 佑樹, 井島 勇祐, 西田 京介, 高道 慎之介,
"音素事後確率とd-vectorを用いたVariational Autoencoderによるノンパラレル多対多音声変換,"
電子情報通信学会研究報告, SP2017-88, Vol. 117, No. 517, pp. 21--26, 2018年3月. (平成29年度音声研究会 研究奨励賞) (PDF, Slide)
-
宇根 昌和, 齋藤 佑樹, 高道 慎之介, 北村 大地, 宮崎 亮一, 猿渡 洋,
"雑音環境下音声を用いた音声合成のための雑音生成モデルの敵対的学習,,"
情報処理学会研究報告, 2017-SLP-118, No. 1, pp. 1--6, 2017年10月. (PDF, Slide)
-
三好 裕之, 齋藤 佑樹, 高道 慎之介, 猿渡 洋,
"コンテキスト事後確率のSequence-to-Sequence学習を用いた音声変換とDual Learningの評価,"
電子情報通信学会研究報告, SP2017-16, Vol. 117, No. 160, pp. 9--14, 2017年7月. (PDF, Slide)
-
齋藤 佑樹, 高道 慎之介, 猿渡 洋,
"DNNテキスト音声合成のための Anti-spoofing に敵対する学習アルゴリズム,"
情報処理学会研究報告, 2017-SLP-115, No. 1, pp. 1--6, 2017年2月. (PDF, Slide)
-
齋藤 佑樹, 高道 慎之介, 猿渡 洋,
"Anti-spoofingに敵対するDNN音声変換の評価,"
電子情報通信学会研究報告, SP2016-69, Vol. 116, No. 414, pp. 29--34, 2017年1月. (2017年 SP研究会 学生ポスター賞) (PDF, Poster)
-
Google-initiated Research Grant, 30,000 USドル, 2023年11月--2024年10月. (Representative: Yuki Saito)
-
国立研究開発法人科学技術振興機構 ACT-X, "インタラクティブ強化学習に基づく人間参加型適応的テキスト音声合成," 450万円, 2023年10月--2026年3月 (代表)
-
Travel Grant Award for INTERSPEECH2023, 750ユーロ, 2023年8月.
-
立石科学技術振興財団 研究助成 (S), "スモールデータ機械学習に基づくリアルタイム音コミュニケーション能力拡張システム," 3,000万円, 2023年4月--2026年3月.(分担)
-
日本学術振興会 若手研究, "eスポーツ理解に向けた実況解説音声の分析及び音声合成アルゴリズムの開発," 360万円, 2022年4月--2025年3月.(代表)
-
立石科学技術振興財団 研究助成 (A), "連合学習に基づく多話者音声変換のユーザ参加型学習," 220万円, 2022年4月--2023年3月.(代表)
-
日本学術振興会 研究活動スタート支援, "Continual Learning に基づく持続的に学習可能な音声合成," 240万円, 2021年9月--2023年3月.(代表)
-
2021年度 キオクシア(旧東芝メモリ)奨励研究, 100万円, 2021年6月--2022年3月.(代表)
-
日本学術振興会 特別研究員奨励費, "聞き手モデルに基づく能動的音声合成に関する研究," 250万円, 2018年5月--2021年3月.(代表)
-
公益財団法人 NEC C&C 財団 平成30年度 前期国際会議論文発表者助成受給者, 25万円, 2018年4月.
-
Winners of The INTERSPEECH2024 Discrete Speech Challenge (TTS Track), 2024年9月.
-
情報処理学会 2024年度 山下記念研究賞, 2024年7月.
-
第40回 井上科学振興財団 井上研究奨励賞, 2024年2月.
-
Travel Grant Award for INTERSPEECH2023, 2023年8月.
-
音学シンポジウム2023 優秀発表賞, 2023年6月.
-
第22回 船井情報科学振興財団 船井研究奨励賞, 2023年5月.
-
2021年度電子情報通信学会 論文賞, 2022年6月.
-
2021年度情報処理学会 音声言語情報処理研究会 企業賞 (Yahoo!Japan賞), 2022年3月.
-
2020 IEEE SPS Young Author Best Paper Award, 2021年6月.
-
2020年度 東京大学 大学院情報理工学系研究科 研究科長賞(システム情報学専攻・博士課程), 2021年3月.
-
日本音響学会 第49回粟屋 潔学術奨励賞, 2021年3月.
-
2018年度C&C若手優秀論文賞, 2019年1月.
-
The 12th IEEE Signal Processing Society Japan Student Journal Paper Award, 2018年11月.
-
平成29年度音声研究会 研究奨励賞, 2018年8月.
-
日本学生支援機構 第一種奨学金 特に優れた業績による奨学金返還免除 (半額) 対象者, 2018年5月.
-
第34回 電気通信普及財団 テレコムシステム技術学生賞, 2018年3月.
-
The 1st IEEE Signal Processing Society Tokyo Joint Chapter Student Award, 2017年11月.
-
Spoken Language Processing Student Grant of ICASSP, 2017年3月.
-
日本音響学会 第14回学生優秀発表賞, 2017年3月.
-
2017年 SP研究会 学生ポスター賞, 2017年1月.
-
平成27年度 釧路高専専攻科 学生特別研究発表会 奨励賞, 2016年2月.
-
平成25年度 釧路高専 校長賞, 2014年3月.
-
YANSシンポジウム スポンサー賞 (株式会社IVRy賞), 2024年9月. (受賞者: 高野 大成)
-
日本音響学会 第28回学生優秀発表賞, 2024年9月. (受賞者: 山内 一輝)
-
Shortlisted for the ISCA Best Student Paper Award 2024, 2024年8月. (受賞者: Dong Yang)
-
音学シンポジウム2024 優秀発表賞, 2024年6月. (受賞者:山内 一輝)
-
2024年 SP研究会 学生ポスター賞, 2024年3月. (受賞者:山内 一輝)
-
2023年度情報処理学会 音声言語情報処理研究会 企業賞 (Fairy Devices賞), 2024年3月. (受賞者:平井 龍之介)
-
日本音響学会 第27回学生優秀発表賞, 2024年3月. (受賞者: 渡邊 亞椰)
-
Google Travel Grants for Students in East Asia, 2022年7月. (受賞者:西邑 勇人)
-
令和2年度 国立高等専門学校機構学生表彰, 2021年3月. (受賞者:藤井 一貴)
-
音学シンポジウム 学生ポスター賞, 2020年6月. (受賞者:藤井 一貴)
-
フジサンケイビジネスアイ 先端技術大賞 特別賞, 2020年6月. (受賞者:藤井 一貴)
-
情報処理学会 山下記念研究賞, 2020年3月. (受賞者: 高道 慎之介)
-
The 3rd IEEE Signal Processing Society Tokyo Joint Chapter Student Award, 2019年12月. (受賞者: 田丸 浩気)
-
日本音響学会 第18回学生優秀発表賞, 2019年3月. (受賞者: 溝口 聡)
-
音学シンポジウム優秀賞, 2018年6月. (受賞者: 高道 慎之介)
-
橘 健太郎, 齋藤 佑樹, 阿久澤 圭, “音声処理装置及び音声処理プログラム," 特許7360814, 2019年5月21日出願.
-
高道 慎之介, 齋藤 佑樹, 佐伯 高明, 猿渡 洋, “音声変換方法及び音声変換プログラム," 特許734942, 2019年8月19日出願.
-
高道 慎之介, 齋藤 佑樹, 佐伯 高明, 猿渡 洋, “音声変換装置、音声変換方法及び音声変換プログラム," PCT/JP2020/031122, 2020年8月18日出願.
-
高道 慎之介, 齋藤 佑樹, 佐伯 高明, 猿渡 洋, “音声変換装置、音声変換方法及び音声変換プログラム," 特許7421827, 2021年2月5日出願.