Autor der Publikation

Automatic word count estimation from daylong child-centered recordings in various language environments using language-independent syllabification of speech.

, , , , , , , , , , und . Speech Commun., (2019)

Bitte wählen Sie eine Person um die Publikation zuzuordnen

Um zwischen Personen mit demselben Namen zu unterscheiden, wird der akademische Grad und der Titel einer wichtigen Publikation angezeigt. Zudem lassen sich über den Button neben dem Namen einige der Person bereits zugeordnete Publikationen anzeigen.

 

Weitere Publikationen von Autoren mit dem selben Namen

Modeling the Influence of Language Input Statistics on Children's Speech Production., , , und . Cogn. Sci., (2020)Sticks, leaves, buckets, and bowls: Distributional patterns of children's at-home object handling in two subsistence societies., , , , , , , und . CogSci, cognitivesciencesociety.org, (2022)Daylong data: Raw audio to transcript via automated & manual open-science tools., , , und . CogSci, Seite 15-16. cognitivesciencesociety.org, (2019)Multi-scale analysis of vocal coordination in infant-caregiver daily interaction., , , und . ICDL, Seite 164-169. IEEE, (2022)The shape of language experience in two traditional communities.. CogSci, Seite 204. cognitivesciencesociety.org, (2019)Phonetic variation and the recognition of words with pronunciation variants., , , und . CogSci, cognitivesciencesociety.org, (2013)The perception of stroke-to-stroke turn boundaries in signed conversation., , , und . CogSci, cognitivesciencesociety.org, (2015)The INTERSPEECH 2017 Computational Paralinguistics Challenge: Addressee, Cold & Snoring., , , , , , , , , und 12 andere Autor(en). INTERSPEECH, Seite 3442-3446. ISCA, (2017)Immature vocalizations simplify the speech of Tseltal Mayan and US caregivers., , und . CogSci, cognitivesciencesociety.org, (2022)Who are you talking to like that? Exploring adults' ability to discriminate child- and adult-directed speech across languages., , , und . CogSci, Seite 3419. cognitivesciencesociety.org, (2019)