Resumen: Las instrucciones motoras en aves son el emergente de la actividad de miles de neuronas. En el cerebro del ave, estas neuronas se encuentran agrupadas en núcleos de miles de unidades, y estos núcleos estan a su vez conectados formando lo que se denominan arquitecturas neuronales. Existen numerosos experimentos que determinan, en alguna medida, las funcionalidades y conexiones de estas arquitecturas. Las aves emiten vocalizaciones complejas y existe evidencia a favor de que este comportamiento es aprendido. La posibilidad de entender como un cerebro se reconfigura para lograr un objetivo determinado, como es imitar el canto del tutor, puede tener relevancia en varias áreas de la ciencia. Para emitir las vocalizaciones, el ave debe controla un delicado aparato vocal, la sirínge. Las instrucciones motoras que controlan la sirínge son el objeto de este trabajo. Actualmente contamos con una teoría bien establecida para control motor en canto de aves. En este trabajo proponemos una teoría alternativa y se expone la manera en la que llegamos a ella por caminos independientes. La primera, se sustenta en observaciones de actividad neuronal al nivel de unidades individuales. Nuestra propuesta por otro lado, se construye a partir de observaciones de carácter macroscópico, como son los gestos motores en el canto de aves. En este trabajo mostramos que la dinámica de un conjunto grande de unidades excitables puede capturarse por ecuaciones dinámicas de baja dimensión. Estas ecuaciones a su vez, tienen algunas características comunes con modelos fenomenológicos propuestos para poblaciones de neuronas y establecen de alguna manera, una conexión entre estas dos escalas. Estas ecuaciones pueden explicar la diversidad, morfología y organización temporal de los gestos motores de canarios con un buen grado de presición. Las características matemáticas de estas ecuaciones están presentes en muchos modelos compatibles con los datos fisiológicos.
Abstract: The physiological instructions responsible of motor control in song birds are due to the collective behaviour of thousands of neurons. This neurons are spatially clustered in the bird's brain forming neural nucleous. The nucleous are interconnected in complicated ways forming circuitries called neural architectures. There are numerous experiments that determine to some extent the different functionalities of each nucleous involved in the motor pathway. Song birds elicitate complex vocalizations and there is strong evidence supporting the view that this behaviour is learned. The possibility of understanding the mechanisms by which a brain reconfigures to attain a determined objective, like imitating the tutor's song, might have relevance in several fields of science. In order to vocalize, the bird has to control a delicate vocal organ, the syrinx. The neural instructions driving the syrinx are the main objet in this study. There is a well established theory for motor control in songbirds. In this work we put forward an alternative view and we discuss the way we arrived to it by independent means. The first one is supported by single unit observations. Our proposal is built from macroscopic observations, such as the respiratory gestures used during song production. In this work we show that the dynamics of a large set of excitable units can be described by a low dimensional non linear dynamical system. This equations have several mathematical features which are common to various phenomenological models that have been proposed for the description of large populations of neurons, stablishing in this way a connection between different scales of the description. This equations allow a simple explanation of the diversity, morphology and temporal organization of motor gestures in canaries (Serinus Canaria) with good quantitative agreement. The mathematical features of this equations are present in several models that are compatible with the available physiological data.
Título :
Oscilaciones no lineales en canto de aves
Autor :
Alonso, Leandro Martín
Director :
Mindlin, Gabriel B.
Consejero de estudios :
Paz, Juan Pablo
Jurados :
Sigman, Mariano ; Montani, Fernando ; Eguía, Manuel
Año :
2012
Editor :
Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires
Filiación :
Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales Departamento de Física. Laboratorio de sistemas dinámicos
Grado obtenido :
Doctor de la Universidad de Buenos Aires en el área de Ciencias Físicas
Resumen: El canto de aves oscinas es un comportamiento complejo aprendido que surge de la interacción entre un sistema nervioso central y una serie de dispositivos periféricos bio-mecánicos. Es una tarea intensa la de dilucidar cuánta de la complejidad es debida a la enorme dimensión de la dinámica del sistema nervioso, y cuánta a la de la respuesta mecánica de la periferia. Este último punto resulta de particular interés para la física, porque los sistemas bio-miméticos empleados por los seres vivos son abrumadoramente no lineales, y capaces de presentar comportamiento complejo aún ante instrucciones sencillas. Esta tesis se propone mostrar que modelos vocales sumamente sencillos son capaces de reproducir las sutilezas presentes en el canto de las aves oscinas, siendo la sencillez del modelo de tal magnitud que su solución es computable mediante un procesador de señales digitales (DSP). Esto permite diseñar una nueva estrategia para la bio-mimética prostética vocal: la integración en tiempo real de modelos sencillos, controlados por pocas señales fisiológicas. En esta tesis se muestra la plausibilidad de esta estrategia construyendo un prototipo de ese dispositivo.
Abstract: The complex vocalizations composing birdsong emerge from the interaction between the nervous system and a nonlinear peripheral device, its vocal organ. It is an area of intensive work to elucidate how much of the complexity of it is due to the huge dimensionality of the dynamics of the nervous system, and how much due to the mechanical response of the periphery. This last point is of particular interest for applied physics, as bio-mechanic systems used by living things are overwhelmingly non-linear, and capable of presenting complex behaviors even as a response to simple instructions. We present a bio-prosthetic device based on a model for the zebra finch vocal organ, which is capable of producing the subtleties present in the actual song of the birds. This model is simple to the extent that its solution can be computed by digital signal processors (DSP), when fed with actual physiological motor instructions by a freely behaving subject. This allows for the design of a new strategy for biomimetic prosthesis: real-time integration of simple models, controlled by few physiological signals. In this thesis we show the plausibility of this strategy by building a prototype of such a device.
Título :
Modelos de baja dimensión para canto de aves y aplicación a interfaces cerebro-máquina = Low-Dimensional models for Birdsong and application to Brain Machine Interfaces
Autor :
Arneodo, Ezequiel Matías
Director :
Mindlin, Gabriel B.
Consejero de estudios :
Sigman, Mariano
Jurados :
Golombek, Diego ; Eguía, Manuel ; Lozano, Gustavo
Año :
2012
Editor :
Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires
Filiación :
Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales Departamento de Física. Laboratorio de Sistemas Dinámicos
Grado obtenido :
Doctor de la Universidad de Buenos Aires en el área de Ciencias Físicas
Cita tipo APA: Arneodo, Ezequiel Matías . (2012). Modelos de baja dimensión para canto de aves y aplicación a interfaces cerebro-máquina. Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires. http://digital.bl.fcen.uba.ar/Download/Tesis/Tesis_5114_Arneodo.pdf
Cita tipo Chicago: Arneodo, Ezequiel Matías. "Modelos de baja dimensión para canto de aves y aplicación a interfaces cerebro-máquina". Tesis de Doctorado. Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires. 2012. http://digital.bl.fcen.uba.ar/Download/Tesis/Tesis_5114_Arneodo.pdf
Resumen: Este trabajo de tesis trata sobre la comunicación oral y está dividida en tres grandes subtemas. El primero de ellos comprende la conversión de ondas de presión en el tímpano (sonido) en conceptos; el segundo aborda la transición mental entre ideas y finalmente el tercero, la emisión de una vocalización. De esta manera cubrimos el recorrido completo que experimenta una señal en un hablante. Cada una de estas tres secciones es un campo en si mismo y lo que se encuentra en este trabajo son pequeños aportes a cada uno de ellos. En el área del proceso de comprensión del habla estudiamos un efecto que se conoce como Efecto de Transformación Verbal (ETV) que se produce frente a la escucha repetida de la misma palabra y mostramos que su dinámica cumple con todas las características de percepción biestable. Esto agrega al ETV a la lista de fenómenos biestables junto con las figuras ambiguas, tonos galopantes, rivalidad binocular, etc. y sugiere modificaciones a los modelos vigentes de reconocimiento de palabras. En el campo de la semántica cuantitativa, construimos un grafo semántico de co-ocurrencias (una medida estadística de la similitud entre palabras a partir de la estructura de sus ocurrencias en texto escrito) y mostramos que el proceso de asociación libre (decir la primera palabra que se nos viene a la cabeza frente a la presentaci ón de una palabra estímulo) puede ser capturado, en esencia, por un proceso difusivo anómalo dentro de dicho grafo. Finalmente, estudiamos la emisión de vocalizaciones, no ya en humanos sino en ratas, analizando la riqueza de su comportamiento vocal con miras a establecerlas como un modelo animal de comunicación vocal. En particular, desarrollamos algoritmos de clasificación automática para sus vocalizaciones ultrasónicas y mostramos que se estructuran de manera probabilística en el tiempo. Con esto se cierra nuestro ciclo de recepción, elaboración y emisión de un mensaje.
Abstract: The work presented here is a study on oral communication and is subdivided into three big areas. The first one deals with the translation of pressure waves at the eardrums (sound) into concepts in the brain; the second one explores the mental transition between thoughts and finally, the third one investigates vocal output. In this manner, we cover the whole excursion of a signal through a communicating agent. Each one of these stages represents an active and broad field of research. Here, we present our contributions to each one of those areas. In the area of spoken word recognition we study the Verbal Transformation Effect (VTE) which entails a change in the perceived word after repeated presentations. We show that the dynamics of this effect has all the characteristics of bistable perception. This appends the VTE to the list of bistable percepts (together with ambiguous figures, galloping tones, binocular rivalry, etc) and suggests corrections to current models of spoken word recognition. In the field of quantitative semantics, we constructed a semantic graph of word co-occurrence (a statistical measure of similarity between words based on the structure of occurrences in written text) and showed that the process of free association (i.e saying first thing that comes to mind upon the presentation of a stimulus word) can be understood as an anomalous diffusion process in the mentioned graph. Finally, we study the production of vocalizations, not in humans but in the rat. We analyze the richness of their vocal behavior in an attempt to establish them as an animal model for vocal communication. In particular, we developed algorithms for automatic classification of ultrasonic vocalizations and showed that they are probabilistically structured in time. This closes the communication loop: to receive, elaborate and send a message.
Título :
Aportes al estudio cuantitativo del lenguaje y la comunicación animal en tres etapas: recepción, elaboración y emisión de un mensaje
Autor :
Costa, Martín Elías
Director :
Sigman, Mariano Laplagne, Diego
Consejero de estudios :
Piegaia, Ricardo
Jurados :
Golombek, Diego ; Gravano, Agustín ; Balenzuela, Pablo
Año :
2014-08-11
Editor :
Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires
Filiación :
Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales Departamento de Física. Laboratorio de Neurociencia Integrativa
Grado obtenido :
Doctor de la Universidad de Buenos Aires en el área de Ciencias Físicas
Cita tipo APA: Costa, Martín Elías . (2014-08-11). Aportes al estudio cuantitativo del lenguaje y la comunicación animal en tres etapas: recepción, elaboración y emisión de un mensaje. Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires. http://digital.bl.fcen.uba.ar/Download/Tesis/Tesis_5616_Costa.pdf
Cita tipo Chicago: Costa, Martín Elías. "Aportes al estudio cuantitativo del lenguaje y la comunicación animal en tres etapas: recepción, elaboración y emisión de un mensaje". Tesis de Doctorado. Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires. 2014-08-11. http://digital.bl.fcen.uba.ar/Download/Tesis/Tesis_5616_Costa.pdf
Resumen: El trabajo que relata esta tesis se basa en la implementación de herramientas de análisis provenientes de la física en áreas vinculadas a las neurociencias. En particular esta tesis se encarga de mostrar la validez de estas herramientas y su capacidad de ser incorporadas como nuevas técnicas de analisis para abordar problemáticas típicas en neurociencias con otro punto de vista. Las aves canoras, modelo animal empleado en esta tesis, tienen la capacidad de aprender y generar un comportamiento complejo que es el canto. Para ello cuentan con un sofisticado órgano fonador, llamado Siringe, que es controlado mediante instrucciones provenientes del sistema nervioso. Durante la última década el Laboratorio de Sistemas Dinámicos ha realizado numerosos trabajos sobre el funcionamiento la Siringe, buscando comprender cuánto de la complejidad del canto se debe a la complejidad propia del organo fonador y cuánto se debe a complejidad en las instrucciones. Para ello se han realizado modelos matemáticos de baja dimensión, operacionales y predictivos capaces de generar sonidos sintéticos muy similares a los del ave, permitiendo asimismo comprender cuáles son las instrucciones necesarias para la obtención de dichos sonidos. Esta tesis se encarga en primera instacia de mostrar la pertinencia de dichos modelados para el caso del Diamante mandarín en términos de 3 observables distintos, para luego ir tras la pregunta de cómo están organizadas las instrucciones en el sistema nervioso. En términos de características acústicas se comprobó los sonidos generados con el modelo presentan la misma relación entre frecuencia fundamental y contenido espectral que los sonidos reales del ave, sonidos de baja frecuencia fundamental presentan alto contenido espectral y viceversa. Por otro lado, en términos de los gestos motores se comprobó que los gestos de presión y tensión que emplea el ave durante su canto para controlar la siringe, están fuertemente correlacionados con los parámetros del modelo que dan cuenta de la presión y la tensión. Finalmente, se confirmo la pertinencia del modelo en términos de respuesta neuronal en neuronas selectivas al canto propio en núcleos vinculados al aprendizaje y generación del canto. Para ello se realizaron experimentos de electro fisiología tanto en aves despiertas como dormidas mostrando que la respuesta neuronal presentada ante el estímulo de su propio canto grabado era muy similar a la presentada ante el estímulo del canto sintético. Vale aclarar que para lograr ese resultado fue necesario realizar una serie de mejoras al modelo, como la inclusión de un tracto vocal superior que actuara como filtro dinámico del sonido permitiendo incorporar mejoras tímbricas canto sintético. Finalmente con el modelado validado se abordo la pregunta de cómo codifica el cerebro la generación del canto. Para ello, se propuso realizar un cambio de coordenadas, de las acústicas (donde se venía estudiando el problema desde años) a las motoras. En estas coordenadas, se pudo observar una fuerte relación entre los disparos neuronales en el HVc (núcleo vinculado al aprendizaje y generación del canto) y los extremos de los gestos motores que se obtienen a partir del modelado del canto. Este resultado abrió un debate en el área, ya que hasta entonces el paradigma establecido afirmaba que los disparos en HVc eran cómo un "reloj" que dispara equidistante sin relación con la generación del canto. Este resultado, asimismo se suma a otros resultados que aparecen en la literatura de los últimos años que muestran observaciones contradictorias con el paradigma del "reloj". En esta tesis se plantea el debate como algo abierto aún y a la espera de la existencia de un modelo de sistema motor en el canto de ave que integre todas estas observaciones recientes.
Abstract: This thesis is based on the implementation of analysis tools from physics in areas related to neuroscience. In particular, this thesis seeks to show the validity of these tools and their ability to be incorporated as new analytical techniques to approach typical problems in neuroscience from a different point of view. Songbirds, animal model used in this thesis, have the ability to learn and generate a complex behavior which is singing. In order to sing, they have a sophisticated vocal organ called Syrinx, which is controlled by instructions from the nervous system. During the last decade the Dynamical Systems Lab has performed extensively on the Syrinx operation, seeking to understand how much of song complexity is due to the complexity of the vocal organ and how much is due to complexity in the instructions. This has been done, operational and predictive low dimensional mathematical models capable of generating very similar to those of synthetic bird sounds, allowing also understand what the instructions for obtaining these sounds are. This thesis is responsible in the first instance to show the relevance of those modeled for the case in terms Zebra finch 3 different observables, then go after the question of how instructions are organized in the nervous system. In terms of acoustic characteristics of sounds generated was found to have the same pattern relationship between the fundamental frequency and the actual spectral content of the bird sounds, sounds of low fundamental frequency and vice versa at high spectral content. On the other hand, in terms of motor gestures it was found that the pressure and tension gestures employing the bird for its song to control the syrinx, are strongly correlated with the model parameters that account for the pressure and tension. Finally, the relevance of the model was confirmed in terms of selective neuronal response to own singing in nuclei related to song learning and generation of neurons. This electrophysiology experiments were conducted in both awake and asleep birds showing that the neural response to the stimulus presented their own recorded song was very similar to that presented to the stimulus of synthetic singing. It is clear that to achieve this result it was necessary to make a number of improvements to the model, the inclusion of an upper vocal tract act as dynamic filter allowing incorporate timbral sound improvements synthetic singing. Finally modeling validated with the question of how encoding celebrated singing generation board. To do this, it was proposed to make a change of coordinates, acoustic (where the problem had been studying for years) to the motor. In these coordinates, we observed a strong relationship between neuronal firing in HVC (nucleus linked to learning and singing generation) and the ends of the motor gestures obtained from the modeling of singing. This result opened a debate in the area, because until then the established paradigm claimed that the shots were HVc how a " clock 'equidistant firing unrelated to the generation of singing. This result also adds to other results reported in the literature in recent years that show contradictory observations with the paradigm of " clock '. In this thesis the discussion as open still and waiting for the existence of a power model in the singing bird that integrates all these recent observations system arises.
Título :
Empleo de coordenadas motoras para decodificar el sistema motor en el canto de aves = Decoding the motor system on birdsong using motor coordinates
Autor :
Sanz Perl Hernández, Yonatan
Director :
Mindlin, Gabriel
Consejero de estudios :
Sigman, Mariano
Jurados :
Mininni, Pablo ; Tubaro, Pablo ; Eguía, Manuel
Año :
2014-12-15
Editor :
Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires
Filiación :
Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales Departamento de Física. Laboratorio de Sistemas Dinámicos
Grado obtenido :
Doctor de la Universidad de Buenos Aires en el área de Ciencias Físicas
Cita tipo Chicago: Sanz Perl Hernández, Yonatan. "Empleo de coordenadas motoras para decodificar el sistema motor en el canto de aves". Tesis de Doctorado. Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires. 2014-12-15. http://digital.bl.fcen.uba.ar/Download/Tesis/Tesis_5680_SanzPerlHernandez.pdf
Resumen: La percepción tímbrica es uno de los fenómenos más complejos que realiza el sistema auditivo. El timbre, originalmente establecido como la cualidad que permite discriminar instrumentos musicales entre sí, en la actualidad se encuentra más vinculado con el concepto ecológico de identificación de las fuentes sonoras en un entorno natural. Su inherente carácter multidimensional, hace que la relación entre la forma de onda de un sonido y el timbre percibido sea una relación compleja, en la cual distintas partes del sistema auditivo están involucradas. A pesar de estas limitaciones, es sabido que hay ciertos atributos acústicos temporales y espectrales que suelen destacarse en la percepción tímbrica. Los más relevantes son, por un lado, el tiempo de ataque de la envolvente como característica temporal y por otro el brillo o centroide espectral como característica espectral. En este trabajo se utilizaron dos metodologías para estudiar el timbre. Por un lado, se realizaron dos experimentos psicofísicos de comparación de pares de sonidos y, por otro, los timbres fueron estudiados mediante técnicas de procesamiento de se~nales y el modelado de la periferia auditiva. Uno de los experimentos fue realizado utilizando sonidos de amplitud modulada sinusoidalmente como estímulos y llevado a cabo masivamente a través de Internet, mientras que para el otro experimento, se utilizaron multifónicos del saxo alto en un ambiente controlado. Estas dos familias de sonidos poseen modulaciones como atributo temporal característico a diferencia de los que son utilizados en muchos de los estudios de percepción tímbrica donde la principal característica temporal es el tiempo de ataque. Los experimentos demostraron que la modulación temporal fue un atributo saliente junto con el centroide espectral para ambos conjuntos de sonidos. Además, se observó que sonidos que se encontraban agrupados en un espacio de parámetros de control se encontraban agrupados también, en la mayor parte de los casos, en los correspondientes espacios perceptuales. En cambio, las distancias entre los grupos en estos espacios se vieron modificadas. Por otra parte, los sonidos fueron analizados en base al procesamiento de sus se~nales y mediante simulaciones de la periferia auditiva. Para esto se desarrolló un modelo de la periferia auditiva con énfasis en la mecánica coclear, donde se optó por un modelo dinámico no lineal y con alimentación lateral. Este modelo fue desarrollado teniendo en consideración la capacidad de reproducir los factores dominantes de la transducción coclear como la saturación en intensidad, el mecanismo activo de amplificación y las curvas de enmascaramiento entre otros. Los parámetros fueron ajustados de manera satisfactoria para reproducir respuestas clásicas de experimentos psicoacústicos en humanos y datos de experimentos fisiológicos in vivo en mamíferos.
Abstract: Timbre perception is one of the most complex tasks the auditory system performs. Timbre, originally defined as the quality that allows the discrimination of musical instruments, it is nowadays more related to the ecological concept of the identification of sound sources in natural environments. Because of its inherently multidimensional character, the relationship between the sound wave and the perceived timbre is a complex matter, where different parts of the auditory systems are involved. Besides this limitations, it is known that there are certain temporal and spectral acoustic features that are fundamental to the perception of timbre. The most relevant are the attack time of the envelope as a temporal feature and the brightness or spectral centroid as a spectral feature. In this work we use two methodologies for studying timbre. Firstly, two psychophysical experiments of sound pairs comparison were done, and secondly the timbres were analyzed by signal processing techniques and through a model of the auditory periphery. One of the experiments was carried out using sinusoidally amplitude modulated sounds as stimuli, massively through internet and the other experiment was done using alto saxophone multiphonics but in a controlled environment. These two families of sounds have modulations as a characteristic temporal feature which is not present on many timbre studies, where the attack time is more common. The experiments showed that the temporal modulation was a salient feature, along with the spectral centroid for both sound families. In addition, it was observed that sounds grouped in a control parameter space were also grouped, in most cases, in the corresponding perceptual spaces. In contrast, it were the distances between the groups within these spaces that changed. Also the sounds were analysed by signal processing techniques and through auditory periphery simulations. To this end, we developed an auditory periphery model with emphasis on the cochlear mechanics, using a non linear dynamical model with feedforward and feedbackward properties. This model was developed with the aim of reproducing dominant factors of cochlear transduction, for example, the saturation with intensity, the active mechanism of amplification and the masking curves among other capabilities. The parameters where successfully adjusted to reproduce typical human psychoacoustical experiments and data from physiological in vivo mammals experiments.
Título :
Estudio de la percepción tímbrica en sonidos con modulación mediante experimentos psicofísicos y modelado de la periferia auditiva = Studies of timbre perception of modulated sounds through psychophysics experiments and auditory periphery models
Autor :
Riera, Pablo Ernesto
Director :
Eguía, Manuel Camilo
Consejero de estudios :
Sigman, Mariano
Jurados :
Basso, Gustavo ; Balenzuela, Pablo ; Di Liscia, Oscar P.
Año :
2015-03-30
Editor :
Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires
Filiación :
Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales Universidad Nacional de Quilmes. Departamento de Ciencias Sociales. Laboratorio de Acústica y Percepción Sonora
Grado obtenido :
Doctor de la Universidad de Buenos Aires en el área de Ciencias Físicas
Cita tipo APA: Riera, Pablo Ernesto . (2015-03-30). Estudio de la percepción tímbrica en sonidos con modulación mediante experimentos psicofísicos y modelado de la periferia auditiva. Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires. http://digital.bl.fcen.uba.ar/Download/Tesis/Tesis_5681_Riera.pdf
Cita tipo Chicago: Riera, Pablo Ernesto. "Estudio de la percepción tímbrica en sonidos con modulación mediante experimentos psicofísicos y modelado de la periferia auditiva". Tesis de Doctorado. Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires. 2015-03-30. http://digital.bl.fcen.uba.ar/Download/Tesis/Tesis_5681_Riera.pdf
Resumen: El sistema auditivo utiliza dos mecanismos fundamentales para la percepción de altura tonal. Uno de ellos (conocido como "tonotópico", "espectral" o "de lugar") se basa en la capacidad de separar frecuencias que posee la membrana basilar: la misma muestra un patrón de excitación con máxima amplitud en un determinado lugar, en función de la frecuencia del estímulo sonoro. El otro (conocido como "mecanismo temporal") se basa en la capacidad de las neuronas del nervio auditivo de generar potenciales de acción sinápticos sincronizados con la fase del estímulo sonoro ("enganche de fase"). Existe un debate abierto respecto a cuál mecanismo interviene en la percepción de altura tonal para diferentes estímulos y rangos de frecuencia. Para el caso de tonos modulados en frecuencia, típicos en el contexto musical (vibratos) y en ciertos lenguajes tonales como el chino mandarín, se sabe que la modulación en frecuencia introduce modulaciones en amplitud en la forma del patrón de excitación de la membrana basilar. Además, existen resultados perceptuales que pueden ser explicados en función del tiempo que la señal pasa en los extremos de la modulación. Estos resultados muestran que la información temporal participa en la percepción de la altura tonal y que el mecanismo que la procesa muestra cierta "inercia" o "lentitud" ("sluggishness" en inglés), que dificulta la detección de la frecuencia cuando la modulación es rápida. En este trabajo utilizamos dos metodologías para estudiar la codificación de la altura tonal. En la primera parte se describen experimentos de percepción de altura tonal realizados con tonos puros modulados en frecuencia (vibratos) con perfiles asimétricos. Además se realiza una revisión de una variedad de modelos aplicables a la percepción de altura tonal. Se incluyen modelos basados en la información espectral, en la temporal, modelos mixtos y modelos fenomenológicos propuestos específicamente para explicar resultados de experimentos con vibratos. Se comparan las predicciones de dichos modelos con los resultados de los experimentos realizados. Se incluye también una revisión de resultados previos de experimentos similares y una contrastación de dichos resultados con las predicciones de los modelos. En la segunda parte se estudiaron algunos mecanismos biológicos que son importantes para explicar la codificación de la información temporal en la periferia auditiva. Se describe un modelo biofísico realista de la sinapsis de cinta de las células ciliadas internas, las células responsables de la transducción de las vibraciones mecánicas de la membrana basilar a impulsos neuronales en los nervios auditivos. Dicha sinapsis se destaca por su baja latencia, lo cuál es un requisito necesario para poder conservar en forma fidedigna la información de fase. Analizamos los parámetros del modelo y estudiamos diferentes mecanismos propuestos en la literatura para explicar su baja latencia. Finalmente estudiamos la capacidad para el enganche de fase de dicho modelo, en particular para tonos modulados en frecuencia, para comprender de qué modo se ve afectada por la rapidez de la modulación y cómo puede in uir en la percepción de la altura.
Abstract: The auditory system employs two main mechanisms for the perception of pitch. The first mechanism (known as "tonotopic", "spectral" or "rate-place") is based on the frequency selectivity present at the basilar membrane: as the stimulus frequency varies, the basilar membrane displays an excitation pattern whose point of maximum amplitude also varies. The second mechanism (known as "temporal") is based on the ability of the auditory nerve fibers to generate spikes in synchrony with the phase of the auditory stimulus ("phase-locking"). There is an ongoing debate about which mechanism is responsible for the perception of pitch for different stimuli and frequency ranges. In the case of frequency-modulated tones, present in music (vibratos) and in some tonal languages as Mandarin Chinese, the modulation of frequency introduces a modulation of amplitude in the shape of the excitation pattern on the basilar membrane. Also, there is perceptual evidence of an effect of the time that the signal spents at the extremes of the modulation profile on the perception of pitch. These evidence suggests that the temporal information is involved in the perception of pitch and that the underlying mechanism displays some degree of "sluggishness", difficulting the perception of pitch for rapid modulations. In these work we used two methodologies in order to study the codification of pitch. In the first part we describe psychoacoustical pitch perception experiments with asymmetrical frequency-modulated tones. The work includes a review of several diverse models proposed in the literature for the perception of pitch. The predictions of the models are compared with the results of the experiments and also with a review of recent experiments on the same subject. In the second part, we studied some biological mechanisms that are key to the codification of the temporal information at the auditory periphery. We describe a realistic biophysical model of the internal hair cell ribbon synapse, the structure responsible for the transduction of the oscillations on the basilar membrane into neural impulses at the auditory fibers. The ribbon synapse displays a very low latency, which is a requisite for ensuring a faithful transmission of the temporal information of the stimulus. We analyzed the parameters of the model and studied mechanisms proposed in the literature to explain this characteristic. Finally, we analyzed the phase-locking capability of the model, in particular for frequency-modulated tones, in order to understand the effect of the modulation in the synchronization and its influence on pitch perception.
Título :
Estudio de la codificación de las características temporales del sonido mediante experimentos psicofísicos y modelado computacional de la periferia auditiva = Study of the codification of temporal information of sound through psychophysical experiments and computational modelling of the auditory periphery
Autor :
Etchemendy, Pablo Esteban
Director :
Eguía, Manuel Camilo
Consejero de estudios :
Solari, Hernán
Jurados :
Goutman, Juan ; Balenzuela, Pablo ; Basso, Gustavo
Año :
2016-03-29
Editor :
Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires
Filiación :
Universidad de Buenos Aires. Facultad de Ciencias Exactas y Naturales Departamento de Física Universidad Nacional de Quilmes. Departamento de Ciencias Sociales. Laboratorio de Acústica y Percepción Sonora
Grado obtenido :
Doctor de la Universidad de Buenos Aires en el área de Ciencias Físicas
Cita tipo APA: Etchemendy, Pablo Esteban . (2016-03-29). Estudio de la codificación de las características temporales del sonido mediante experimentos psicofísicos y modelado computacional de la periferia auditiva. Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires. http://digital.bl.fcen.uba.ar/Download/Tesis/Tesis_5954_Etchemendy.pdf
Cita tipo Chicago: Etchemendy, Pablo Esteban. "Estudio de la codificación de las características temporales del sonido mediante experimentos psicofísicos y modelado computacional de la periferia auditiva". Tesis de Doctorado. Facultad de Ciencias Exactas y Naturales. Universidad de Buenos Aires. 2016-03-29. http://digital.bl.fcen.uba.ar/Download/Tesis/Tesis_5954_Etchemendy.pdf
http://digital.bl.fcen.uba.ar
Biblioteca Central Dr. Luis Federico Leloir - Facultad de Ciencias Exactas y Naturales - Universidad de Buenos Aires
Intendente Güiraldes 2160 - Ciudad Universitaria - Pabellón II - C1428EGA - Tel. (54 11) 4789-9293 int 34