Informatie

Verwerking van spraak/niet-spraakgeluiden in het menselijk brein


Ik heb een ""wat was er eerst: de kip of het ei?"-soort vraag met betrekking tot de verwerking en het begrip van spraak / niet-spraakgeluiden in het menselijk brein. Ik vraag me af of spraak en generieke niet-spraakgeluidsverwerking in het menselijk brein op de een of andere manier verwant zijn en of een van de twee wiskundig gezien als een "basis" wordt gebruikt of als een verwijzing om de andere te begrijpen.

De meeste mensen gebruiken "Zijn stem/Het klinkt als..." om geluiden/menselijke stemmen te beschrijven, bovendien kunnen we alle niet-spraak-akoestische activiteiten om ons heen uitschakelen en blokkeren als we niet in gesprek zijn, wat suggereert dat we een speciale gevoeligheid voor het horen van spraak (of misschien onze taal of alleen onze namen als iemand ons belt).

Ik heb een artikel gelezen waarin staat dat:

Kennis van onze moedertaal fungeert als een soort auditieve "sjabloon" die de manier beïnvloedt waarop we de geluiden van andere talen waarnemen (wetenschappers noemen dit "native listening").

Andere talen anders horen dan de moedertaalsprekers is gemakkelijk te begrijpen, maar is er enig onderzoek dat het verschil in hersenactiviteit bestudeert wanneer spraak / andere geluiden worden gehoord en of er iets speciaals is aan het horen van spraak in het bijzonder.


"Ik vraag me af of spraak en generieke niet-spraakgeluidsverwerking in het menselijk brein op de een of andere manier gerelateerd zijn en of een van de twee wiskundig gezien als een 'basis' wordt gebruikt of als referentie om de andere te begrijpen."

Ze hebben allebei akoestische energie gemeen - waarvan de snelheid van verandering informatie op zich is. De wiskundige basis bij uitstek om ze met elkaar te vergelijken, denk ik, is hoe elk die energie relateert aan de hersenreactie - ook wel het voorwaartse model van de stimulus-responsrelatie genoemd.

In auditieve studies krijg je vaak de (spectro)temporele responsfunctie (S/TRF) om een ​​geschatte "samenvatting" van deze relatie te schatten. Merk op dat dit traditioneel onafhankelijk wordt gedaan, dat wil zeggen dat ofwel energie uit spraak of uit andere soorten geluid afzonderlijk wordt onderzocht.

"is er enig onderzoek dat het verschil in hersenactiviteit bestudeert wanneer spraak / andere geluiden worden gehoord"

Er is een geschiedenis van werk dat de differentiële codering van natuurlijke versus kunstmatige geluidsklassen contrasteert (bekijk het basiswerk van Theunissen en collega's). Op deze schalen (neuronen of neurongroepen) kunnen de verschillen nogal groot zijn en zowel bij vogels als bij zoogdieren voorkomen.

Als u meer geïnteresseerd bent in deze coderingsregels met betrekking tot "hersenactiviteit" op grotere schaal, zijn er lokale veldpotentieelstudies (bijv. Gaucher et al. 2012 J Physiol-Parijs) die ook wiskundig verband houden met de S/TRF. Het zijn echter hoogstwaarschijnlijk invasieve dierstudies. Ik kan me ook niet herinneren of ze spraak S/TRF's contrasteren met andere geluiden. Als je iets wilt dat dichter bij de menselijke cognitie ligt, wil je waarschijnlijk ook naar EEG- of MEG-onderzoeken kijken.

Het blijkt dat het vinden van overeenkomsten een beetje moeilijker kan zijn dan het vinden van de verschillen, misschien omdat de geluiden zelf zo verschillend zijn. De wiskundige relatie kan hier niet aan ontsnappen en kan in ruil daarvoor verschillende S/TRF-patronen geven.

In een pre-print die overeenkomsten zoekt tussen stimulustypes, wordt gerapporteerd dat bepaalde informatie over de akoestische energieveranderingen, in het bijzonder temporele aanvangsranden, kan worden gecodeerd door de menselijke auditieve cortex, zij het van spraak of muziek, of iets anders , in een min of meer generaliseerbaar formaat over klassen, althans kwalitatief. https://www.biorxiv.org/content/early/2017/07/27/168997


Begrijpen hoe we spreken

Een nieuwe studie onthulde de patronen van hersenactiviteit die menselijke spraak produceren. De bevindingen kunnen op een dag leiden tot nieuwe benaderingen voor de behandeling van spraakstoornissen.

De meesten van ons denken nauwelijks bewust na over het proces van spreken, maar het is een van de meest complexe handelingen die we uitvoeren. Om te kunnen spreken, moeten uw hersenen uw lippen, kaak, tong en strottenhoofd (stembox) snel en nauwkeurig op elkaar afstemmen. Spraakstoornissen, zoals stotteren, treffen ongeveer 5% van de kinderen in het eerste leerjaar. De onderliggende oorzaken van de meeste spraakstoornissen worden echter niet goed begrepen.

Eerdere studies hebben aangetoond dat een deel van het menselijk brein, de ventrale sensorimotorische cortex, of vSMC, de spraak regelt. Met behulp van elektrische stimulatie konden onderzoekers ontdekken welke algemene delen van de vSMC welke delen van het gezicht en de mond aanstuurden. Dit soort stimulatie kon echter geen zinvolle uitingen oproepen. De bevinding houdt in dat spraakgeluiden niet worden opgeslagen in afzonderlijke hersengebieden, maar kunnen voortkomen uit gecoördineerde motorpatronen waarbij meerdere gebieden betrokken zijn.

Een team onder leiding van Dr. Edward Chang van de Universiteit van Californië, San Francisco, ging op zoek naar een beter begrip van spraakverwerking in de hersenen. Om dit te doen, registreerden ze neurale activiteit van de hersenoppervlakken van 3 mensen die werden geïmplanteerd met elektrode-arrays als onderdeel van hun voorbereiding op hersenchirurgie. De elektrische opnames werden vergeleken met microfoonopnames terwijl de proefpersonen lettergrepen hardop lazen. De studie werd gedeeltelijk gefinancierd door NIH's National Institute of Neurological Disorders and Stroke (NINDS) en National Institute on Deafness and Other Communication Disorders (NIDCD). Resultaten verschenen online op 20 februari 2013, in Natuur.

De onderzoekers identificeerden ongeveer 30 actieve elektrodeplaatsen per proefpersoon. Analyse van de opnames onthulde dat verschillende geluiden werden gecoördineerd in dynamische, complexe activiteitspatronen waarbij verschillende hersengebieden betrokken waren. Elektrische patronen in de hersenen wisselden binnen tientallen milliseconden tussen verschillende representaties voor verschillende medeklinkers en klinkers.

Regio's van hersenactiviteit tijdens spraak hebben een hiërarchische, overlappende structuur georganiseerd door fonetische kenmerken, vonden de wetenschappers. Medeklinkers die vergelijkbare tonglocaties vereisen, hebben bijvoorbeeld overlappende activiteitsgebieden. De patronen van hersenactiviteit verschillen het meest tussen medeklinkers en klinkers. De onderzoekers zeggen dat dit zou kunnen verklaren waarom versprekingen meestal inhouden dat medeklinkers worden vervangen door medeklinkers, of klinkers door klinkers, maar ze zelden met elkaar verwisselen.

"Hoewel we Engels gebruikten, ontdekten we dat de belangrijkste patronen die werden waargenomen, patronen waren die taalkundigen hebben waargenomen in talen over de hele wereld - misschien suggereren ze universele principes voor het spreken in alle culturen", zegt Chang.

Dit werk belicht een uniek menselijk vermogen: de kracht van complexe spraak. De bevindingen kunnen helpen bij het begeleiden van mogelijke behandelingen voor spraakstoornissen en de ontwikkeling van hersen-computerinterfaces voor kunstmatige spraak.


Hoe de hersenen gebarentaal verwerken

Het vermogen om te spreken is een van de essentiële kenmerken die mensen onderscheidt van andere dieren. Veel mensen zouden waarschijnlijk intuïtief spraak en taal gelijkstellen. Cognitief wetenschappelijk onderzoek naar gebarentalen sinds de jaren zestig schetst echter een ander beeld: vandaag is het duidelijk dat gebarentalen volledig autonome talen zijn en een complexe organisatie hebben op verschillende taalniveaus, zoals grammatica en betekenis. Eerdere onderzoeken naar de verwerking van gebarentaal in het menselijk brein hadden al overeenkomsten en ook verschillen gevonden tussen gebarentalen en gesproken talen. Tot nu toe was het echter moeilijk om een ​​consistent beeld te krijgen van hoe beide vormen van taal in de hersenen worden verwerkt.

Onderzoekers van het MPI CBS wilden nu weten welke hersenregio's daadwerkelijk betrokken zijn bij de verwerking van gebarentaal in verschillende onderzoeken - en hoe groot de overlap is met hersenregio's die horende mensen gebruiken voor de verwerking van gesproken taal. In een metastudie die onlangs in het tijdschrift is gepubliceerd: Menselijk brein in kaart brengen, verzamelden ze gegevens van experimenten met gebarentaalverwerking die over de hele wereld werden uitgevoerd. "Een meta-studie geeft ons de mogelijkheid om een ​​algemeen beeld te krijgen van de neurale basis van gebarentaal. Dus voor het eerst waren we in staat om statistisch en robuust de hersengebieden te identificeren die betrokken waren bij de verwerking van gebarentaal in alle studies ', legt Emiliano Zaccarella uit, de laatste auteur van het artikel en groepsleider bij de afdeling Neuropsychologie van het MPI CBS.

De onderzoekers ontdekten dat vooral het zogenaamde Broca-gebied in de frontale hersenen van de linkerhersenhelft een van de regio's is die betrokken was bij de verwerking van gebarentaal in bijna elk geëvalueerd onderzoek. Van dit hersengebied is al lang bekend dat het een centrale rol speelt in gesproken taal, waar het wordt gebruikt voor grammatica en betekenis. Om hun resultaten uit de huidige metastudie beter te classificeren, vergeleken de wetenschappers hun bevindingen met een database met enkele duizenden studies met hersenscans.

De in Leipzig gevestigde onderzoekers konden inderdaad bevestigen dat er een overlap is tussen gesproken en gebarentaal in het gebied van Broca. Ze slaagden er ook in om de rol aan te tonen die wordt gespeeld door de rechter frontale hersenen - de tegenhanger van Broca's gebied aan de linkerkant van de hersenen. Dit kwam ook herhaaldelijk voor in veel van de geëvalueerde gebarentaalstudies, omdat het niet-linguïstische aspecten verwerkt, zoals ruimtelijke of sociale informatie van zijn tegenhanger. Dit betekent dat bewegingen van handen, gezicht en lichaam - waaruit tekens bestaan ​​- in principe door doven en horenden op dezelfde manier worden waargenomen. Alleen bij dove mensen activeren ze bovendien het taalnetwerk in de linkerhersenhelft, inclusief het gebied van Broca. Ze zien de gebaren daarom als gebaren met een linguïstische inhoud - in plaats van als pure bewegingssequenties, zoals het geval zou zijn bij horende mensen.

De resultaten tonen aan dat het gebied van Broca in de linkerhersenhelft een centraal knooppunt is in het taalnetwerk van het menselijk brein. Afhankelijk van of mensen taal gebruiken in de vorm van gebaren, geluiden of schrijven, werkt het samen met andere netwerken. Het gebied van Broca verwerkt dus niet alleen gesproken en geschreven taal, zoals tot nu toe bekend, maar ook abstracte taalkundige informatie in elke vorm van taal in het algemeen. "Het brein is dus gespecialiseerd in taal op zich, niet in spreken", legt Patrick C. Trettenbrein, eerste auteur van de publicatie en promovendus bij MPI CBS, uit. In een vervolgonderzoek wil het onderzoeksteam nu achterhalen of de verschillende delen van Broca's gebied ook gespecialiseerd zijn in de betekenis of de grammatica van gebarentaal bij doven, vergelijkbaar met horende mensen.


De hersenen zijn een wonderbaarlijk iets. Het transformeert letters, cijfers en afbeeldingen in betekenisvolle gegevens die elk aspect van ons leven beheersen. neurale paden vonk en nieuwe ideeën ontmoeten de oude om complexe schematische structuren te vormen. Maar een van de meest wonderbaarlijke taken die het aanpakt, is leren. Als eLearning-professionals moeten we begrijpen hoe informatieverwerking plaatsvindt om effectieve eLearning-ervaringen te creëren.

Hersenbiologie

De hersenen bestaan ​​uit veel verschillende structuren en de cortex omhult ze allemaal. De cortex is de buitenste schil van de hersenen die zorgt voor complexe denkvaardigheden. Bijvoorbeeld geheugen, taal, ruimtelijk inzicht en zelfs persoonlijkheidskenmerken. De binnenste regionen van de hersenen beheersen de meest primitieve aspecten van de menselijke natuur, zoals onze basisimpulsen, angsten, emoties en ons onderbewustzijn. De hersenen herbergen ook een "subcortex", die rechtstreeks verbinding maakt met de cortex. Als zodanig is het in staat om informatie te verzenden en te verwerken.

Het menselijk geheugen

Nu we de fysieke samenstelling van de hersenen kort hebben onderzocht, gaan we dieper in op een van de meest vitale functies: geheugen. Geheugen is immers cruciaal voor eLearning. Als online studenten de informatie niet kunnen onthouden, is alles voor niets. We besteden meestal niet veel aandacht aan het geheugen, omdat het een automatisch proces is. Elke gebeurtenis, hoe klein ook, passeert de poorten van ons geheugen zonder dat we het merken. De meeste voorvallen zijn echter gewoon op doorreis en nemen nooit een permanente verblijfplaats in. Er zijn drie soorten geheugen waar instructieontwerpers zich bewust van moeten zijn:

1. Zintuiglijk geheugen

Wanneer onze zintuigen worden getriggerd door een stimulus, slaan onze hersenen de informatie kort op. We ruiken bijvoorbeeld versgebakken brood en kunnen de geur maar een paar seconden onthouden voordat deze verdwijnt. Ook al ligt het brood niet meer voor ons, onze geest houdt de indruk nog even vast. De hersenen hebben dan de mogelijkheid om het via de geheugenbanken te verwerken of het te vergeten. Bij eLearning wordt het zintuiglijke geheugen getriggerd door een visueel aantrekkelijk beeld, achtergrondmuziek of een ander element dat de zintuigen gebruikt.

2. Kortetermijngeheugen

Een proces dat valt onder de bevoegdheid van het werkgeheugen, dat tijdelijk informatie opslaat wanneer het wordt geactiveerd door stimuli. Het kortetermijngeheugen kan maximaal 7 items tegelijk bevatten. Het heeft ook een tijdslimiet, die meestal tussen de 10 seconden en een minuut ligt.

3. Langetermijngeheugen

Na het passeren van het kortetermijngeheugen wordt relevante informatie verplaatst naar langetermijnopslag. In dit stadium zullen de hersenen minder snel belangrijke details vergeten. Maar zelfs het langetermijngeheugen kan in de loop van de tijd afnemen als we onze kennis niet opfrissen.

Informatieverwerkingsstadia

Er zijn een aantal Informatieverwerkingstheorieën en modellen. Velen suggereren echter dat het leerproces drie belangrijke fasen omvat:

Fase 1: Invoer

De hersenen worden blootgesteld aan prikkels, waarna ze de informatie analyseren en evalueren. De online leerling leest bijvoorbeeld een passage voor en bepaalt of het de moeite waard is om te onthouden.

Fase 2: Opslag

Onze hersenen slaan de informatie op voor later gebruik. Het voegt het ook toe aan ons mentale schema en codeert het. Als de informatie niet wordt versterkt, kunnen de hersenen het na verloop van tijd gewoon vergeten.

Fase 3: Uitgang

Het brein beslist wat het met de informatie gaat doen en hoe het op de stimulus zal reageren. Bijvoorbeeld, na het lezen van de passage, gebruikt het individu de informatie die ze hebben geleerd om een ​​uitdaging te overwinnen.

3 tips om assimilatie en absorptie in eLearning te verbeteren

1. Maak het aandacht waardig

Onze hersenen kunnen onmogelijk elk detail onthouden. Als dat zo was, zouden we overladen worden met zoveel informatie dat we niet zouden kunnen functioneren. Daarom moet je ervoor zorgen dat de hersenen het opmerken. Opvallende afbeeldingen, feiten en grafieken zijn krachtige prikkels. Ze sturen een signaal naar de hersenen dat dit specifieke item het onthouden waard is. Hier past wel een kanttekening bij. Alleen de belangrijkste elementen van uw eLearning-cursus mogen opvallen. Bijvoorbeeld een fel rood vetgedrukt lettertype om de aandacht te vestigen op een cruciale tip. Anders loop je het risico op cognitieve overbelasting.

2. Versterk belangrijke concepten

Het geheugen heeft van tijd tot tijd herinneringen nodig, anders laat het informatie door de kieren glippen. Spaced eLearning geeft u de mogelijkheid om het geheugen na verloop van tijd op te frissen. Zo bekijken medewerkers op de eerste dag van de eLearning-cursus een online taaktutorial. Later nemen ze deel aan een vertakkingsscenario dat hetzelfde proces omvat, gevolgd door een samenvattende oefening. De hersenen hebben het vermogen om dezelfde taak in verschillende formaten te onderzoeken, wat verveling voorkomt en de informatie versterkt.

3. Gebruik actief terugroepen

Actief terugroepen omvat het ophalen en toepassen van informatie. Online lerenden moeten bijvoorbeeld de informatie in hun eigen woorden zetten of gebruiken om een ​​simulatie uit te voeren. In de meeste gevallen moeten ze de gegevens manipuleren en buiten de context toepassen. Ze moeten bijvoorbeeld een vaardigheid in verschillende situaties gebruiken om echte uitdagingen op te lossen. Moedig online leerlingen aan om over het onderwerp na te denken en vervolgens te bepalen hoe ze het buiten de leeromgeving gaan gebruiken. Door de leerling gegenereerde inhoud, samenvattingen en interactieve oefeningen zijn zeer effectieve actieve terugroeptechnieken.

De hersenen verwerken informatie met verbazingwekkende snelheden. Maar het is geen onoverwinnelijke machine die elk stukje kennis absorbeert dat langskomt. Om deze reden moeten onderwijsontwerpers rekening houden met de mentale grenzen van de menselijke geest en vervolgens binnen die grenzen werken. Dat gaat meestal om hapklare inhoud, visuele illustraties en interactieve online oefeningen.

Wil je meer weten over het brein en zijn leergedrag? Lees het artikel Top 10 psychologieboeken die eLearning-professionals moeten lezen om de beste psychologieboeken te ontdekken die alle eLearning-professionals in hun schappen zouden moeten hebben.


Hersenscans tonen opvallende overeenkomsten tussen honden en mensen

Ga naar Mijn profiel en vervolgens Bekijk opgeslagen verhalen om dit artikel opnieuw te bekijken.

Golden retrievers en border collies poseren bij de MRI-machine. Afbeelding: Borbala Ferenczy

Ga naar Mijn profiel en vervolgens Bekijk opgeslagen verhalen om dit artikel opnieuw te bekijken.

Een nieuwe hersenafbeeldingsstudie van de beste vriend van de mensheid heeft een opvallende overeenkomst gevonden in de manier waarop mensen en honden - en misschien veel andere zoogdieren - stem en emotie verwerken.

Net als mensen lijken honden hersensystemen te bezitten die toegewijd zijn aan het begrijpen van stemgeluiden en gevoelig zijn voor hun emotionele inhoud. Deze systemen zijn niet eerder beschreven bij honden of andere niet-primatensoorten, en de nieuwe bevindingen bieden een intrigerende neurobiologische blik in de rijkdom van onze specifieke hoek van het dierenrijk.

"Wat ons nu echt enthousiast maakt, is dat we deze stemgebieden in het hondenbrein hebben ontdekt", zegt vergelijkend etholoog Attila Andics van de Hongaarse Eötvös Loránd University, hoofdauteur van de 20 februari Huidige biologie papier waarin de experimenten worden beschreven. "Het gaat niet alleen om honden en mensen. We delen deze functie waarschijnlijk met veel andere zoogdieren."

Uitgevoerd in het laboratorium van collega Eötvös Loránd-etholoog Ádám Miklósi, een van 's werelds meest vooraanstaande onderzoekers op het gebied van de intelligentie en het gedrag van honden, werd het onderzoek geïnspireerd door een millennium-ontdekking van delen van het menselijk brein die zijn afgestemd op menselijke stemmen . Soortgelijke gebieden zijn sindsdien beschreven bij apen, die 30 miljoen jaar geleden voor het laatst een gemeenschappelijke voorouder deelden met mensen.

Mensen en honden deelden voor het laatst 100 miljoen jaar geleden een gemeenschappelijke voorouder. Als een op stem afgestemde regio ook bij honden zou kunnen worden gevonden, zou de eigenschap echt diep in onze gedeelde biologie zitten.

Om de mogelijkheid te onderzoeken, trainden Andics en collega's zes golden retrievers en vijf border collies om bewegingloos in een scanner te liggen, zodat de onderzoekers fMRI-scans van hun hersenen konden verzamelen. Deze scans meten veranderingen in de bloedstroom, die algemeen wordt beschouwd als een indicator van neurale activiteit.

In de scanner luisterden elk van de 11 honden, en een vergelijkingsgroep van 22 mannen en vrouwen, naar bijna 200 opnames van honden- en mensengeluiden: zeuren en huilen, lachen en blaffen. Zoals verwacht reageerden menselijke stemverwerkingsgebieden het meest op menselijke stemmen. Bij honden reageerden overeenkomstige hersengebieden op de geluiden van honden. Bij beide soorten veranderde de activiteit in deze regio's op vergelijkbare manieren als reactie op de emotionele toon van een vocalisatie - janken versus speels geblaf bij honden bijvoorbeeld, of huilen versus lachende menselijke stemmen.

Voor mensen die honden kennen als metgezellen en vrienden, lijken de resultaten misschien voorspelbaar. Maar als je het in de hersenen ziet spelen, drijft het punt naar huis.

"Het is geen verrassende bevinding, maar het is een belangrijke bevinding", zegt cognitief etholoog en auteur Marc Bekoff, die niet bij het onderzoek betrokken was. Stemgeluiden en emoties verwerken "is fundamenteel voor wie ze zijn."

De reacties waren niet identiek tussen soorten. Bij honden reageerden de vocale verwerkingsgebieden ook op niet-vocale geluiden, maar bij mensen werden ze alleen door de stem getriggerd - misschien een hint naar het intens sociale traject van de menselijke evolutie, zei Andics. De gebieden zijn mogelijk geëvolueerd om nog fijner afgestemd te zijn op vocale geluiden bij mensen, speculeerde hij. Honden in het onderzoek waren ook iets beter afgestemd op menselijke stemmen dan mensen op die van honden.

Dat gezegd hebbende, lijkt wat de twee soorten delen de verschillen te overtreffen, en een aantal fascinerende vragen op te roepen. Hondenintelligentie en sociaal bewustzijn worden soms toegeschreven aan de ongeveer 15.000 jaar dat ze - Canis lupus familiaris, om precies te zijn - hebben doorgebracht in het gezelschap van mensen, evolutionair beloond voor sociale gevoeligheid.

De regio's die in de nieuwe studie zijn getagd, hebben echter diepe evolutionaire wortels. Hoewel het mogelijk is dat honden ze onafhankelijk van mensen hebben ontwikkeld, is het veel waarschijnlijker dat ze aanwezig waren in die lang geleden gemeenschappelijke voorouder, zei Andics. Ze kunnen zelfs verder terug worden getraceerd in ons evolutionaire erfgoed.

Anatomie van een menselijk (boven) en hondenbrein, met geschetst gebieden die verband houden met vocale verwerking.

Afbeelding: Andics et al./Current Biology

Neurowetenschapper Jaak Panksepp van de Washington State University, die de neurobiologie van emoties bij dieren bestudeert, zei dat de bevindingen "te verwachten zijn op basis van wat we al lang weten over de algehele evolutionaire organisatie van de hersenen van zoogdieren". Panksepp, die niet betrokken was bij het onderzoek, is van mening dat geavanceerde geluidsverwerking en emotionele gevoeligheid een fundamentele eigenschap van zoogdieren is.

Het fokken door mensen heeft ongetwijfeld de vocale verwerkingssystemen van honden verfijnd, zei Bekoff, maar ze waren waarschijnlijk behoorlijk geavanceerd tegen de tijd dat de paden van onze soort 15.000 jaar geleden samenkwamen. Zeker, wolven, coyotes en andere ongedomesticeerde leden van het hondengenus zijn nogal vocaal en gevoelig voor emoties, misschien is dat de reden waarom mensen en honden zo'n goed team vormden.


Wetenschappers ontdekken hersencellen die strijden om traumatische herinneringen in stand te houden of te onderdrukken

Verschillende clusters van neuronen in de amygdala moduleren hoge en lage angsttoestanden via verbindingen met andere regio's in de hersenen. Kenta M. Hagihara, M.D., Friedrich Miescher Institute for Biomedical Research, Basel, Zwitserland (gebruikt met toestemming)

Twee clusters van hersencellen concurreren om het voortduren of verdwijnen van traumatische herinneringen te bevorderen, volgens een nieuwe studie uitgevoerd bij muizen. De bevindingen kunnen belangrijke inzichten verschaffen in menselijke aandoeningen zoals posttraumatische stressstoornis (PTSS), angststoornissen en aanverwante problemen zoals alcoholgebruiksstoornis (AUD) die kunnen voortvloeien uit het voortduren van traumatische herinneringen. Het nieuwe onderzoek, geleid door wetenschappers van het National Institute on Alcohol Abuse and Alcoholism (NIAAA), onderdeel van de National Institutes of Health, en hun collega's in Zwitserland, wordt gerapporteerd in het tijdschrift Nature.

"Na verloop van tijd zal het leed van het ervaren van een trauma voor sommige mensen afnemen, omdat herinneringen aan het trauma niet langer een angstige reactie oproepen", zegt NIAAA-directeur Dr. George F. Koob. "Voor andere mensen die een trauma hebben meegemaakt, blijven de angstige herinneringen echter bestaan ​​en kunnen ze hun vermogen om deel te nemen aan dagelijkse activiteiten negatief beïnvloeden. Deze angstige herinneringen kunnen voortduren, ook al kan een persoon herhaaldelijk signalen tegenkomen die verband houden met een traumatische ervaring zonder schade. De huidige studie werpt licht op de specifieke neurale circuits die ten grondslag kunnen liggen aan de persistentie en het uitsterven van angstige herinneringen die verband houden met trauma."

Wetenschappers onder leiding van Andrew Holmes, Ph.D., hoofd van NIAAA's Laboratory of Behavioural and Genomic Neuroscience, onderzochten clusters van neuronen, bekend als geïntercaleerde cellen of ITC's, die strak om de amygdala van de muis zijn verpakt. De amygdala bevindt zich diep in de slaapkwabben van de hersenen van zoogdieren en staat bekend als een knooppunt voor het verwerken van emoties. Het is daarom een ​​waarschijnlijke actor in de hersensystemen die ten grondslag ligt aan de vorming van angstige herinneringen die verband houden met bepaalde omgevingssignalen en het succesvol uitsterven van die herinneringen wanneer dezelfde signalen later geen kwaad voorspellen.

In een reeks gedrags-in vivo hersenbeeldvorming en neurofysiologische onderzoeken, werkten NIAAA-wetenschappers samen met onderzoekers in de Verenigde Staten, Zwitserland en Duitsland om de mogelijke rol van ITC's te beoordelen toen muizen leerden een signaal (bijvoorbeeld een geluid) te associëren met een voet- schok (een angstopwekkende gebeurtenis), en doofde vervolgens de associatie door de keu niet langer te koppelen aan een voetschok.

De onderzoekers ontdekten dat twee verschillende ITC-clusters ofwel een angstreactie of het uitsterven van de cue / foot-shock-associatie bevorderen. Ze onthulden verder dat de clusters effectief met elkaar concurreren, via een proces dat bekend staat als wederzijdse synaptische remming, om de relatieve sterkte van elke herinnering te bepalen en daarmee het niveau van defensief gedrag van het dier. De studie toonde ook aan dat de ITC-clusters langeafstandsverbindingen hebben met bekende angstregulerende regio's in de middenhersenen en prefrontale cortex.

"Het aanhouden van verontrustende herinneringen aan een traumatische gebeurtenis is een van de kenmerken van PTSS en sommige angststoornissen", zegt Dr. Holmes. "Onze bevindingen identificeren een neuraal circuit in de amygdala dat activiteit orkestreert over een breed hersennetwerk om een ​​krachtige invloed uit te oefenen op het vermogen om te schakelen tussen hoge en lage angsttoestanden. Deze bevinding roept nu interessante vragen op over de vraag of disfunctie van dit hersensysteem zou kunnen bijdragen aan de duidelijke individuele verschillen in risico op traumagerelateerde psychiatrische stoornissen."


Hoe geluid de evolutie van je hersenen heeft gevormd

Van insecten tot olifanten tot mensen, wij dieren gebruiken allemaal geluid om te functioneren en te praten in sociale groepen - vooral wanneer de omgeving donker is, of onder water of zwaar bebost.

"We denken dat we echt weten wat er daarbuiten gebeurt", zegt Laurel Symes, bioloog van Dartmouth College, die krekels bestudeert. Maar er is een kakofonie om ons heen, zegt ze, vol informatie die nog moet worden ontcijferd. "We krijgen dit kleine stukje van al het geluid in de wereld."

Shots - Gezondheidsnieuws

Nauwlettend luisteren: hoe geluid het onzichtbare onthult

Onlangs hebben wetenschappers het gebied van bio-akoestiek nog verder geduwd, om hele omgevingen vast te leggen, niet alleen de dieren die daar leven. Sommigen noemen dit 'akoestische ecologie' - luisteren naar de regen, beekjes, wind door de bomen. Een loofbos klinkt bijvoorbeeld anders dan een dennenbos en dat klanklandschap verandert per seizoen.

Neurowetenschapper Seth Horowitz, auteur van het boek Het universele zintuig: hoe horen de geest vormt, is vooral geïnteresseerd in de manier waarop al deze geluiden, die in wezen trillingen zijn, de evolutie van het menselijk brein hebben gevormd.

"Trillingsgevoeligheid wordt gevonden in zelfs de meest primitieve levensvormen", zegt Horowitz - zelfs bacteriën. "Het is zo belangrijk voor je omgeving, wetende dat er iets anders in je buurt beweegt, of het nu een roofdier is of voedsel. Overal waar je gaat, is er vibratie en het vertelt je iets."

Luisteren van dichtbij: de natuur ontcijferen door middel van geluid

Om een ​​olifantengesprek te ontcijferen, moet je de jungle voelen rommelen

En horen is speciaal onder de zintuigen, zegt Horowitz. Geluid kan een lange weg afleggen. Het zal zich door alles voortplanten - de grond, water. Het werkt 's nachts, gaat om de hoek. "Geluiden geven je zintuiglijke input die niet wordt beperkt door het gezichtsveld."

Gezien hoe goed geluid weerspiegelt wat er om ons heen gebeurt, zijn de hersenen van gewervelde dieren - inclusief mensen - geëvolueerd om er buitengewoon gevoelig voor te zijn.

"Je hoort overal 20 tot 100 keer sneller dan je ziet", zegt Horowitz, "zodat alles wat je met je oren waarneemt, elke andere waarneming die je hebt, en elke bewuste gedachte die je hebt, kleurt." Geluid, zegt hij, "komt zo snel binnen dat het alle andere input wijzigt en er het toneel voor vormt."

Het kan dat doen omdat de auditieve circuits van de hersenen minder wijdverspreid zijn dan het visuele systeem. De circuits voor zicht "laten de kaart van de metro van New York er eenvoudig uitzien", zegt Horowitz, terwijl geluidssignalen niet zo ver hoeven te reizen in de hersenen.

En geluid wordt snel doorgestuurd naar delen van de hersenen die zich bezighouden met zeer basale functies - 'precorticale gebieden', zegt Horowitz - die geen deel uitmaken van de bedrading voor bewust denken. Dit zijn plekken waar emoties worden opgewekt.

"We zijn emotionele wezens," zegt Horowitz, "en emoties zijn evolutionaire 'snelle reacties' - dingen waar je niet over hoeft na te denken."

Die snelheid werpt zijn vruchten af ​​op de overlevingsafdeling: "Hoor je een hard geluid?" hij zegt. "Maak je klaar om ervoor weg te rennen." Emoties zijn snelle leveringssystemen in de hersenen, en geluid stuurt emoties aan.

Dus geluid raakt je in de buik. Maar geluid is ook rijk aan patronen die informatie bevatten.

"Het brein is echt een natte, slordige drummachine", zegt Horowitz. "Het is wanhopig op zoek naar ritmes." Niet alleen ritme, maar ook patronen in toonhoogte, die een wiskundige regelmaat hebben die de aandacht van de hersenen trekt.

Het geluid van een bekende stem heeft bijvoorbeeld zijn eigen set ritmes en toonhoogtes. Dat geldt ook voor bepaalde geluiden in de natuur: vogels, insecten, regen. De Bayaka-bevolking, die in het regenwoud van Centraal-Afrika leeft, neemt de syncope van vallende regen op in hun muziek.


Hoe we onze kennis over de wereld ophalen

Om de wereld te begrijpen, rangschikken we individuele objecten, mensen en gebeurtenissen in verschillende categorieën of concepten. Begrippen als 'de telefoon' bestaan ​​voornamelijk uit zichtbare kenmerken, namelijk vorm en kleur, en geluiden, zoals rinkelen. Daarnaast zijn er acties, d.w.z. hoe we een telefoon gebruiken.

Het begrip telefoon ontstaat echter niet alleen in de hersenen als we een telefoon voor ons hebben. Het verschijnt ook wanneer de term alleen wordt genoemd. Als we het woord 'telefoon' lezen, roepen onze hersenen ook het begrip telefoon op. Dezelfde gebieden in de hersenen worden geactiveerd die zouden worden geactiveerd als we daadwerkelijk een telefoon zouden zien, horen of gebruiken. De hersenen lijken dus de kenmerken van een telefoon te simuleren wanneer alleen de naam wordt genoemd.

Tot nu toe was het echter, afhankelijk van de situatie, onduidelijk of het hele concept van een telefoon wordt opgeroepen of alleen individuele functies zoals geluiden of acties en of alleen de hersengebieden die het betreffende kenmerk verwerken, actief worden. Dus als we aan een telefoon denken, denken we dan altijd aan alle functies of alleen aan het onderdeel dat op dat moment nodig is? Hervinden we onze gedegen kennis wanneer een telefoon rinkelt, maar onze actiekennis wanneer we hem gebruiken?

Onderzoekers van het Max Planck Institute for Human Cognitive and Brain Sciences in Leipzig hebben nu het antwoord gevonden: het hangt van de situatie af. Als de studiedeelnemers bijvoorbeeld dachten aan de geluiden die bij het woord 'telefoon' horen, werden de bijbehorende gehoorgebieden in de hersenschors geactiveerd, die ook worden geactiveerd tijdens het daadwerkelijke horen. Bij het nadenken over het gebruik van een telefoon kwamen de somatomotorische gebieden die ten grondslag liggen aan de betrokken bewegingen in actie.

Naast deze sensorisch afhankelijke, zogenaamde modaliteitsspecifieke gebieden, is gebleken dat er gebieden zijn die zowel geluiden als handelingen samen verwerken. Een van deze zogenaamde multimodale gebieden is de linker inferieure pariëtale lobulus (IPL). Het werd actief toen beide functies werden aangevraagd.

The researchers also found out that, in addition to characteristics based on sensory impressions and actions, there must be other criteria by which we understand and classify terms. This became apparent when the participants were only asked to distinguish between real and invented words. Here, a region that was not active for actions or sounds kicked in: the so-called anterior temporal lobe (ATL). The ATL therefore seems to process concepts abstractly or "amodally," completely detached from sensory impressions.

From these findings, the scientists finally developed a hierarchical model to reflect how conceptual knowledge is represented in the human brain. According to this model, information is passed on from one hierarchical level to the next and at the same time becomes more abstract with each step. On the lowest level, therefore, are the modality-specific areas that process individual sensory impressions or actions. These transmit their information to the multimodal regions such as the IPL, which process several linked perceptions simultaneously, such as sounds and actions. The amodal ATL, which represents features detached from sensory impressions, operates at the highest level. The more abstract a feature, the higher the level at which it is processed and the further it is removed from actual sensory impressions.

"We thus show that our concepts of things, people, and events are composed, on the one hand, of the sensory impressions and actions associated with them and, on the other hand, of abstract symbol-like features," explains Philipp Kuhnke, lead author of the study, which was published in the journal Cerebrale cortex. "Which features are activated depends strongly on the respective situation or task" added Kuhnke.

In a follow-up study in Cerebrale cortex, the researchers also found that modality-specific and multimodal regions work together in a situation-dependent manner when we retrieve conceptual features. The multimodal IPL interacted with auditory areas when retrieving sounds, and with somatomotor areas when retrieving actions. This showed that the interaction between modality-specific and multimodal regions determined the behavior of the study participants. The more these regions worked together, the more strongly the participants associated words with actions and sounds.

The scientists investigated these correlations with the help of various word tasks that the participants solved while lying in a functional magnetic resonance imaging (fMRI) scanner. Here, they had to decide whether they strongly associated the named object with sounds or actions. The researchers showed them words from four categories: 1) objects associated with sounds and actions, such as "guitar," 2) objects associated with sounds but not with actions, such as "propeller," 3) objects not associated with sounds but with actions, such as "napkin," and 4) objects associated neither with sounds nor with actions, such as "satellite."


Dogs' brain scans reveal vocal responses

By placing dogs in an MRI scanner, researchers from Hungary found that the canine brain reacts to voices in the same way that the human brain does.

Emotionally charged sounds, such as crying or laughter, also prompted similar responses, perhaps explaining why dogs are attuned to human emotions.

Lead author Attila Andics, from the Comparative Ethology Research Group at the Hungarian Academy of Sciences, said: "We think dogs and humans have a very similar mechanism to process emotional information."

Eleven pet dogs took part in the study training them took some time.

"We used positive reinforcement strategies - lots of praise," said Dr Andics.

"There were 12 sessions of preparatory training, then seven sessions in the scanner room, then these dogs were able to lie motionless for as long as eight minutes. Once they were trained, they were so happy, I wouldn't have believed it if I didn't see it."

For comparison, the team looked at the brains of 22 human volunteers in the same MRI scanners.

The scientists played the people and pooches 200 different sounds, ranging from environmental noises, such as car sounds and whistles, to human sounds (but not words) and dog vocalisations.

The researchers found that a similar region - the temporal pole, which is the most anterior part of the temporal lobe - was activated when both the animals and people heard human voices.

"We do know there are voice areas in humans, areas that respond more strongly to human sounds that any other types of sounds," Dr Andics explained.

"The location (of the activity) in the dog brain is very similar to where we found it in the human brain. The fact that we found these areas exist at all in the dog brain at all is a surprise - it is the first time we have seen this in a non-primate."

Emotional sounds, such as crying and laughter also had a similar pattern of activity, with an area near the primary auditory cortex lighting up in dogs and humans.

Likewise, emotionally charged dog vocalisations - such as whimpering or angry barking - also caused a similar reaction in all volunteers,

Dr Andics said: "We know very well that dogs are very good at tuning into the feelings of their owners, and we know a good dog owner can detect emotional changes in his dog - but we now begin to understand why this can be."

However, while the dogs responded to the human voice, their reactions were far stronger when it came to canine sounds.

They also seemed less able to distinguish between environmental sounds and vocal noises compared with humans.

About half of the whole auditory cortex lit up in dogs when listening to these noises, compared with 3% of the same area in humans.

Commenting on the research, Prof Sophie Scott, from the Institute of Cognitive Neuroscience at University College London, said: "Finding something like this in a primate brain isn't too surprising - but it is quite something to demonstrate it in dogs.

"Dogs are a very interesting animal to look at - we have selected for a lot of traits in dogs that have made them very amenable to humans. Some studies have show they understand a lot of words and they understand intentionality - pointing."

But she added: "It would be interesting to see the animal's response to words rather than just sounds. When we cry and laugh, they are much more like animal calls and this might be causing this response.

"A step further would be if they had gone in and shown sensitivity to words in the language their owners speech."


Pathophysiology of Migraine: A Disorder of Sensory Processing

Plaguing humans for more than two millennia, manifest on every continent studied, and with more than one billion patients having an attack in any year, migraine stands as the sixth most common cause of disability on the planet. The pathophysiology of migraine has emerged from a historical consideration of the "humors" through mid-20th century distraction of the now defunct Vascular Theory to a clear place as a neurological disorder. It could be said there are three questions: why, how, and when? Why: migraine is largely accepted to be an inherited tendency for the brain to lose control of its inputs. How: the now classical trigeminal durovascular afferent pathway has been explored in laboratory and clinic interrogated with immunohistochemistry to functional brain imaging to offer a roadmap of the attack. When: migraine attacks emerge due to a disorder of brain sensory processing that itself likely cycles, influenced by genetics and the environment. In the first, premonitory, phase that precedes headache, brain stem and diencephalic systems modulating afferent signals, light-photophobia or sound-phonophobia, begin to dysfunction and eventually to evolve to the pain phase and with time the resolution or postdromal phase. Understanding the biology of migraine through careful bench-based research has led to major classes of therapeutics being identified: triptans, serotonin 5-HT1B/1D receptor agonists gepants, calcitonin gene-related peptide (CGRP) receptor antagonists ditans, 5-HT1F receptor agonists, CGRP mechanisms monoclonal antibodies and glurants, mGlu5 modulators with the promise of more to come. Investment in understanding migraine has been very successful and leaves us at a new dawn, able to transform its impact on a global scale, as well as understand fundamental aspects of human biology.

Copyright © 2017 the American Physiological Society.

Figuren

The migrainous brain interictally. Imaging…

The migrainous brain interictally. Imaging studies in the migraineurs' brain interictally demonstrate there…

The migrainous migraine during the…

The migrainous migraine during the premonitory phase. In nitroglycerin-induced migraine attacks, H 2…

The migrainous brain during migraine…

The migrainous brain during migraine head pain. Many studies have demonstrated that migraine…

Anatomy of the trigeminovascular system–ascending…

Anatomy of the trigeminovascular system–ascending projections. The trigeminal ganglion (TG) gives rise to…

Modulation of trigeminovascular nociceptive transmission–descending…

Modulation of trigeminovascular nociceptive transmission–descending projections. The trigeminocervical complex (TCC) is subject to…

Anatomy of the trigemino-autonomic pathway…

Anatomy of the trigemino-autonomic pathway believed to contribute to head pain and cranial…

Proposed mechanism of descending modulation…

Proposed mechanism of descending modulation of trigeminovascular nociceptive transmission through brain stem nuclei,…

Proposed mechanisms for the neural…

Proposed mechanisms for the neural basis of photophobia in migraine. EEN : it…

Anatomy and pharmacology of the…

Anatomy and pharmacology of the hypothalamic nuclei and brain stem nuclei involved in…


Bekijk de video: Het Brein deel 1: Prof. dr Erik Scherder in De Wereld Draait Door University (Januari- 2022).