"Godhet utan vishet och utan
gränser är bara en annan
form av ondska."
(John Paterson)

"Det är synd att 99% av
journalisterna skall fördärva
förtroendet för en hel yrkeskår"
(Okänd)

"Ormar äro älskliga varelser,
om man råkar tillhöra samma
giftgrupp"
(Artur Lundkvist)

"När försiktigheten finns överallt,
finns modet ingenstans."
(den belgiske kardinalen Mercier)

"Den som gifter sig med
tidsandan blir snabbt änka."
(Goethe)

"Civiliserade är de kulturer
och individer som respekterar
andra."
(Hört på Axesskanalen)

"Det tragiska med vanligt
sunt förnuft är att det
inte är så vanligt."
(Albert Einstein)

"Halv kristendom tolereras
men föraktas.
Hel kristendom respekteras
men förföljs."
(Okänd)

Senast ändrad: 2019 08 13 13:15

Kritiken mot intelligent design — en ingående analys.

Följande artikel utgör en relativt djuplodande analys av kritiken mot intelligent design (som bakgrund rekommenderas läsaren att först läsa min huvudartikel om intelligent design, vilken återfinns här) och kan kanske upplevas som svårläst. Men, vill man verkligen förstå, finns inga snabba genvägar.

Låt mig börja med att bemöta ett standardargument mot intelligent design (ID), nämligen påståendet att ID gör anspråk på att vara en vetenskaplig teori. Eftersom ID påstår sig vara vetenskap, men enligt kritikerna inte är det, seglar ID under falsk flagg och utgör därmed en form av pseudovetenskap. Således är ID inte värd att tas på allvar. Det är sant att det finns ID-anhängare som påstår att ID är vetenskap. Personligen kan jag bara stå för det jag själv står för, och enligt min mening är ID inte en naturvetenskaplig teori i strikt mening. Den avgörande frågan är emellertid inte om ID är vetenskap eller ej, utan om ID är sann eller ej. Att ID inte utgör en naturvetenskaplig teori, har inget att göra med själva sanningsfrågan. Vetenskapens spelregler (som är formulerade av oss människor) förbjuder oss (och det med all rätt), att i våra vetenskapliga förklaringsmodeller införa "övernaturliga" faktorer (t ex en Designer som inte är en del av vårt universum). Att vetenskapen inte kan "se" eller studera en Designer, är dock inte en brist hos Designern, och motbevisar inte existensen av en Designer, det är en brist (en nödvändig sådan) hos själva den vetenskapliga metoden. Men, även om ID nu inte är vetenskap i strikt bemärkelse, kan ändå ID ha vetenskapliga implikationer, som vi skall se i den följande framställningen. ID har således vetenskaplig relevans och har därmed en plats i diskussionen om alltings ursprung.

En av grundvalarna för Darwins evolutionsteori är naturligt urval. Problemet är att naturligt urval inte kan lagra mutationer (slumpvisa förändringar i generna), som kan vara användbara i framtiden. Varje förändring måste i princip ha en omedelbar överlevnadsfördel för att spridas i en population. Jag har i andra artiklar diskuterat uppkomsten av synsinnet, vilket består av flera olika delar (ljuskänsliga celler, synnerv, syncentrum i hjärnan och ett beteende som utnyttjar den information som kommer via de ljuskänsliga cellerna och som förutsätter att syncentrum kan tolka de elektriska impulser som kommer via synnerven). Det är uppenbart att varje del är nödvändig för funktionen. Att alla dessa delar skulle ha uppkommit samtidigt, utifrån en enda mutation, är alltför osannolikt för att kunna tas på allvar. Det finns mig veterligen ingen biolog som tror detta. Alltså måste delarna ha uppkommit stegvis och sedan kombinerats till ett fungerande synsinne. Problemet är nu att förklara vilken funktion de enskilda delarna haft innan de slutligen kombinerades. Har de inte haft någon funktion, är det svårt att förstå varför de inte försvunnit ur populationen. En möjlighet är givetvis att evolutionen på något sätt är lagbunden (eller kanske till och med styrd). Men i så fall är darwinismen en felaktig, eller i varje fall ofullständig teori. Att evolutionen på något sätt skulle vara lagbunden verkar under alla förhållanden svårt att förena med det materialistiska perspektiv, som de flesta evolutionsbiologer arbetar utifrån. Om evolutionen är lagbunden, uppstår ju omedelbart frågan, varför ett slumpgenererat universum råkat få sådana mycket speciella egenskaper, så att liv per automatik uppstår där. Och till och med av sig självt utvecklas till varelser som kan fundera över sitt eget ursprung. Däremot är en lagbunden evolution fullt förenlig med intelligent designperspektivet.

När man debatterar med evolutionister (med detta ord menar jag anhängare till evolutionsteorin, för vilka denna teori inte bara är en neutral, vetenskaplig teori, utan där den blivit en absolut ideologi, som inte kan eller får ifrågasättas — tyvärr tycks detta gälla för merparten av evolutionsbiologerna) blir det ytterst sällan någon verklig och meningsfull diskussion. Ofta åberopar evolutionisten någon artikel eller Internetsajt, som anses motbevisa argumenten för ID, och är i allmänhet ovillig att på allvar diskutera dessa argument i detalj. Detta är synnerligen tråkigt. Först och främst för att påståendet inte är sant, ID är inte alls motbevisad, men också för att det visar att evolutionsteorin inte bara är en neutral vetenskaplig teori, utan att den tyvärr fått ideologiska och nästan religiösa aspekter. Detta är inte till fördel för vetenskapen, vars credo är att alltid "gå dit" bevisen pekar, oberoende av förutfattade meningar, åberopande av auktoriteter eller prestige. Jag misstänker att många evolutionsbiologer aldrig satt sig in i ID, utan bara har hört av andra biologer (som antagligen inte heller på allvar undersökt ID) att denna teori är motbevisad. Och så nöjer man sig med det.

ID är som sagt inte alls vederlagd och många argument som ID-anhängarna för fram, innebär allvarliga problem för den naturalistiska världsbilden (enligt vilken uppkomsten av universum, livet och de olika arterna, inklusive människan, kan förklaras enbart med hjälp av naturlagar i kombination med slumpfaktorer).

Innan vi går vidare vill jag klargöra att ID inte bara handlar om evolutionen, dvs arternas utveckling från de första urcellerna. Som påpekas i andra artiklar på min hemsida, finns det grundläggande tre ursprungsproblem; universums uppkomst, livets uppkomst och arternas utveckling (det sistnämnda förutsätter givetvis existensen av ett universum och existensen av primitiva celler). Universums uppkomst har inget med biologi att göra, och Darwins evolutionsteori kan inte på något sätt bidra till att förklara hur ett universum har kunnat uppkomma ur ingenting. Detta är frågor som hör hemma i fysiken och kosmologin. Inte heller livets uppkomst har med evolutionen att göra. Övergången från oorganiska ämnen (kol, väte, syre etc) via organiska ämnen (metan, urinämne, aminosyror etc) till den första levande cellen är inte ett biologiskt problem utan ett kemiskt problem, och Darwins teori har inget att säga här heller. Biologin (läran om livet) börjar när vi har den första levande cellen med cellmaskineri och minnesfunktion (DNA eller något förstadium till DNA).

Intelligent design är aktuellt i alla tre fallen. Universum visar tecken på design, t ex så har naturkonstanterna (elektronens laddning, gravitationens styrka, den starka kraftens styrka etc) mycket speciella värden. Skulle något av dessa värden vara bara några procent annorlunda, skulle kolkemi (och därmed liv) inte kunna existera i vårt universum. Det krävs ett mycket speciellt universum för att liv i någon form skall kunna existera. Även livet självt, på cellnivån, uppvisar oerhört starka indicier på design. Den moderna cellbiologin har visat att det maskineri som finns inuti en cell, och även DNA-molekylen själv, utgör en oerhört komplex maskin, mycket mer komplex än någon maskin konstruerad av människor. Och all vår erfarenhet säger oss att komplexa maskiner inte uppkommer av sig själva. Intelligent Design i samband med universums och livets uppkomst behandlas på andra ställen på min hemsida, och jag hänvisar läsaren dit. I föreliggande artikel kommer jag huvudsakligen att diskutera ID och kritiken mot ID i samband med arternas utveckling, dvs evolutionen. I någon mån kommer jag också att gå in på det komplexa cellmaskineriet, vilket har med själva grunden för livet att göra.

Molekylärbiologen Michael Behe har myntat begreppet irreducibel komplexitet. Med detta menar han komplexa system, vilka består av flera delar, där alla delarna är nödvändiga för systemets funktion (som t ex det nyss diskuterade synsinnet). Tar man bort en enda del, fungerar inte systemet lite sämre, det upphör att fungera (ungefär som att en bilmotor består av flera delar, vilka alla är nödvändiga för motorns funktion — tar man bort t ex bränslepumpen går inte motorn lite sämre, den upphör helt att fungera). Behe brukar ta en musfälla som exempel på ett irreducibelt komplext system (jag återkommer strax till detta). Det är väldigt svårt att förstå hur evolutionens mekanismer skulle kunna skapa irreducibelt komplexa biologiska system. Naturligt urval kan nämligen inte lagra mutationer, som kan vara användbara i framtiden, utan bara lagra mutationer som är användbara just nu, dvs som ger en omedelbar överlevnadsfördel. Detta är själva grunden för evolutionsteorin.

Biologernas huvudargument mot irreducibel komplexitet går ut på att de system, som kanske vid en första anblick ter sig irreducibelt komplexa, i själva verket inte är det. Jag kan inte låta bli att här citera Francis Crick, DNA-spiralens upptäckare, när han i ett sammanhang skrev, "Biologerna måste ständigt påminna sig om att det som verkar designat i själva verket är resultatet av slump och lagbundna processer". Man är med andra ord så säker på att ingenting i naturen kan vara designat, så att man inte ens är beredd att tänka tanken. Nåja, det var en liten utvikning. Tillbaka till ämnet. För att neutralisera argumentet med irreducibel komplexitet har man lagt ned mycken möda och uppfinningsrikedom på att vederlägga Behes ovannämnda exempel med en musfälla.

En kort sammanfattning: Behe har i olika sammanhang använt just en musfälla för att förklara vad han menar med irreducibel komplexitet. En sådan fälla består av en platta, på vilken en fjäder, en bygel av ståltråd, en utlösningsmekanism och en ostbit (eller något annat bete) är fast monterade. Det ingår också skruvar eller spikar eller något liknande, som håller fast delarna på plattan. Ostbiten lockar till sig musen och när musen försöker ta ostbiten, frigör utlösningsmekanismen bygeln (som är kopplad till den spända fjädern) och bygeln slår ihjäl musen (fjädern är således själva motorn). Behe menar att om en enda av dessa sex delar saknas (platta, fjäder, bygel, utlösningsmekanism, ostbit samt det som håller fast delarna på plattan — räknar man varje skruv eller spik för sig, blir det mer än sex delar, men detta spelar ingen roll för resonemanget), så fungerar inte fällan lite sämre. Den fungerar inte alls. Överfört på evolutionen blir frågan hur sådana biologiska system kan utvecklas gradvis. Evolutionen kan ju inte planera för framtiden, vilken en intelligent konstruktör kan. Det är ju först när vi har alla bitarna på plats som systemet fungerar och därmed ökar förmågan att överleva hos individen.

Behes resonemang låter rimligt, men har ifrågasatts. Köper vi en musfälla i en affär så kan vi konstatera att den är irreducibelt komplex i Behes mening. Tar vi t ex bort fjädern kommer den inte att fungera. Samma sak gäller de övriga fyra (eller fem beroende på hur vi räknar) delarna. Kritikerna menar att man med lite ändringar kan ta bort flera av delarna och ändå ha en fälla som fungerar, även om den kanske fungerar lite sämre eller till och med mycket sämre, eller kanske kan användas till något annat (t ex en pappersklämma) — det viktiga ur "evolutionär" synpunkt är att den har någon funktion, vad som helst. Den intresserade läsaren kan googla på "Behe mouse trap" för att ta del av kritiken mer i detalj. Behe själv menar att kritikerna har fel. Egentligen spelar det ingen roll vem som har rätt här. Musfällan är bara ett pedagogiskt exempel för att principiellt förklara begreppet irreducibel komplexitet. Att Behe valde just en musfälla var för att han ville ha ett enkelt exempel som alla kunde förstå, utan att besitta specialkunskaper. Musfällan utgör inget exempel på biologisk evolution och har därför inget relevans för själva evolutionen. Även om kritikerna skulle ha rätt (vilket jag inte är så säker på att de har) utgör detta inget argument mot begreppet irreducibel komplexitet. Det visar i så fall bara att en musfälla inte är irreducibelt komplex.

Bilden ger kanske en liten uppfattning om komplexiteten i blodkoaguleringen

Ett annat exempel på irreducibel komplexitet är, enligt Behe, blodets förmåga att koagulera. Denna innefattar en mängd olika kemiska processer som samverkar. Vissa av dessa är absolut nödvändiga för att koagulationen skall fungera (blödarsjuka beror just på att någon av de ingående processerna inte fungerar korrekt). Jag återkommer senare till detta. Biologerna tycks vara hundraprocentigt övertygade om att även detta exempel på irreducibel komplexitet är vederlagt. Jag har inte orkat följa med i debatten, men jag vet att en känd engelsk läkare tidigare hävdade att han motbevisat Behes påstående när det gäller blodets koagulationsförmåga. Behe å sin sida anser sig ha visat att detta inte stämmer. Jag är inte kompetent att avgöra vem som har rätt, men så vitt jag vet så har läkaren i fråga erkänt att hans bevis har brister. Behe är ju trots allt professor i molekylärbiologi, så man kan ju knappast helt bortse från hans resonemang. Det tycks som att Behe inte längre har någon hemsida (jag har i alla fall inte lyckats hitta någon), annars fanns många intressanta diskussioner där. Den läsare som vill veta mer om denna diskussion rekommenderas att googla på t ex "Behe blood coagulation".

Koagulationsförmågan har, till skillnad från musfällan, relevans när det gäller evolutionen. Men, även om blodets koagulationsförmåga nu skulle bevisas vara ett reducibelt system (som alltså i princip kan utvecklas gradvis), bevisar det bara i så fall att just detta exempel inte utgör något argument för ID. Från ID-håll har man angett andra exempel på påstådd irreducibel komplexitet; Krebs- och Calvincyklerna (dessa har med cellandning respektive fotosyntes att göra), DNA-koden, cellmaskineriet, ögats utveckling, bakteriegissel (vissa bakterier simmar genom att snabbt rotera trådar) etc. För vissa av dessa exempel har man kunnat visa att de inte nödvändigtvis är exempel på irreducibel komplexitet, bl a Krebscykeln. Det finns dock invändningar som kan göras, vilket jag återkommer till. När det gäller uppkomsten av cellmaskineriet, DNA-koden och ögats utveckling finns inga övertygande förklaringar överhuvudtaget (annat än "just-so stories", dvs vilda spekulationer). Slutsatsen hittills är att även om man skulle kunna motbevisa flera av de från ID-håll anförda exemplen på irreducibel komplexitet, motbevisar detta inte att sådan komplexitet existerar och utgör ett meningsfullt begrepp. Att avgöra om ett komplicerat biologiskt system verkligen är irreducibelt komplext är en svår uppgift och det är upp till vetenskapen att genom argument och experiment komma fram till ett svar. Dessvärre blir svaren ofta spekulativa och handlar snarare om "hur det skulle kunna ha gått till" än "hur det verkligen gick till" (det sistnämnda är ofta otillgängligt för oss eftersom vi inte kan återupprepa historien). Att företrädare för ID eventuellt felbedömt vissa exempel (t ex Krebscykeln) är inte något som helst argument mot begreppet irreducibel komplexitet i sig. Einstein drog t ex flera felaktiga slutsatser utifrån sin egen allmänna relativitetsteori, vilket senare har visats. Detta motbevisar inte på något sätt den allmänna relativitetsteorin.

Här ser vi också att ID och dess begrepp, trots att denna förklaringsmodell inte är strikt vetenskaplig, ändå kan vara vetenskapligt relevant. Om man t ex objektivt skulle konstatera att ett visst biologiskt system verkligen är irreducibelt komplext, så skulle detta innebära antingen att evolutionsteorin måste modifieras eller eventuellt ersättas av en ny teori, eller också att det existerar en Designer. Att ta argument som irreducibel komplexitet etc på allvar, skulle således kunna leda till att evolutionsteorin förbättras (om den nu behöver förbättras). Det finns många exempel på att modeller som inte haft full vetenskaplig grund, ändå har kunnat påverka vetenskapens utveckling positivt. Dvs, även om ID är en falsk modell, skulle denna modell trots allt kunna ge positiva bidrag till evolutionsteorin, eftersom det tvingar evolutionsbiologerna att tänka igenom sina argument ännu mer noggrant. Rädslan för att på allvar diskutera och ifrågasätta sin teori, vilket gäller alltför många evolutionister, är knappast till gagn för vetenskapen. "Även den smartaste och mest välmenande forskare kan gå vilse utan den disciplin det innebär att behöva övertyga skeptiker", som fysiken Lee Smolin en gång uttryckte det.

Nu avser jag att gå in betydligt mer i detalj i min analys av kritiken mot ID. Det mest ytliga försöket att förklara uppkomsten av komplexa system (genom att bl a bortförklara irreducibel komplexitet) går ut på s k "just-so stories", dvs rimliga men overifierade berättelser. "Det råkade bli si eller så och sedan så av en ren slump så uppkom en mutation som passade in precis, och sedan kanske den mutationen åkte snålskjuts på en annan, närliggande gen… etc, blah, blah, blah…" Sådant hör inte hemma inom vetenskapen annat än möjligen under initialskeendet av en teori, när man spånar och spekulerar. Så "just-so stories" avfärdar jag härmed. Har evolutionisterna inte mer att komma med, är spelet slut.

De flesta "vanliga" biologer har aldrig tänkt igenom problematiken med irreducibel komplexitet på fullt allvar. De tycks vara så övertygade om att evolutionsteorin utgör en absolut sanning, att de antagligen inte tycker att den behöver granskas. Tack och lov för vetenskapen så finns det evolutionsbiologer, som försökt analysera problemen, och som verkligen ansträngt sig för att förklara uppkomsten av komplexa system. Och då talar jag om förklaringar som inte innebär att man berättar sagor (hur rimliga dessa än kan verka), eller att man definitionsmässigt skrattar bort all kritik eller idiotförklarar alla kritiker. Jag talar om seriösa, vetenskapliga förklaringar.

Finns det då några trovärdiga mekanismer som möjligen kan förklara uppkomsten av komplexa biologiska system? Ja, det finns i alla fall ett antal angivna sådana, som vi nu skall granska i detalj. De viktigaste är:

1. Dold redundans
2. Intern redundans
3. Extern redundans
4. Supportsystem
5. Exaptationer med koadaption

(redundans betyder överflöd, t ex så använder man inom flyget redundanta system; man har tre separata hydraulsystem, tre separata datorsystem etc, där vart och ett av systemen ensamt kan utföra den nödvändiga funktionen, varje system har sin egen energikälla etc)

1. Dold redundans innebär att ett system tycks vara irreducibelt komplext. men att systemet "maskerar" tillgången till alternativ, som kan utföra systemets basala funktioner. Eftersom systemet fungerar (även om det kanske fungerar sämre) med hjälp av de alternativa mekanismerna, kan mer avancerade mekanismer utvecklas parallellt för att så småningom ta över hela funktionen.

2. Intern redundans innebär att en äkta delmängd av systemets delar kan utföra samma grundläggande funktion som systemet självt.

Rent principiellt är dold och intern redundans samma sak. I det första fallet är redundansen dold utåt medan den i andra fallet är mer öppen. När man upptäcker att det finns dittills okänd redundans, övergår dold redundans till intern redundans. Det finns givetvis många biologiska exempel på dessa två typer av redundans och i dessa fall är det möjligt (men inte nödvändigtvis sant) att evolutionen har lett fram till dessa system. Det finns dock inget som säger att alla komplexa system är dolt eller internt redundanta. Och även om en delmängd kan utföra de basala funktionerna (vilka kan förväntas vara underlägsna det fullt fungerande systemet), är det inte säkert att dessa basala funktioner är tillräckliga i alla situationer (precis som att vissa reservfunktioner på ett flygplan bara räcker till vissa, för säkerheten vitala funktioner). När det t ex gäller bakterier, som simmar med hjälp av elmotordrivna gissel (trådar), finns ett problem, den Brownska molekylarrörelsen (den till synes slumpmässiga rörelsen hos de små partiklar som flyter omkring i en vätska eller i en gas — rörelsen genereras av att atomerna och molekylerna, på grund av sin värmerörelse, oavbrutet kolliderar med partiklarna i vätskan eller gasen). Det är inte självklart att bakterier kan övervinna den Brownska molekylarrörelsen (vilket de måste för att kunna simma dit där näringen finns) med avsevärt sämre fungerande drivsystem än vad som finns hos dagens bakterier. Så även om man teoretiskt skulle kunna tänka sig ett enklare drivsystem, är det inte säkert att detta skulle öka chansen att överleva. Och om så är fallet borde systemet inte utvecklas.

3. Till skillnad från intern redundans, innebär extern redundans att ett enklare förstadium till visst system kan utföra samma eller i alla fall tillräcklig funktion med hjälp av yttre faktorer (donatorer), ungefär som att en skola som mister sina statsbidrag skulle kunna fungera med hjälp av donatorer som skänker pengar, eller en person som ligger i respirator kan fortsätta att leva trots att andningen inte fungerar. Det finns flera kända exempel på extern redundans. Shank och Joplin har t ex visat att framställningen av glukos-6-fosfat kan ske på flera sätt genom att olika enzym kan syntetisera glukos-6-fosfat, och att dessa olika enzym finns tillgängliga genom genfördubbling. Detta kan man bevisa genom att slå ut det normala enzymet, varvid andra isoforma enzym tar dess plats och syntetiserar samma produkt. Men återigen, varken Behe eller någon annan har påstått att alla komplexa system är irreducibla. Det finns uppenbarligen system som inte är redundanta i alla avseenden (vare sig dolt, internt eller externt). Många ärftliga och dödliga sjukdomar är av denna typ, där bristen på en enda oersättlig biokemisk komponent är orsaken. Hade det handlat om dold redundans i dessa fall, hade sjukdomen inte varit dödlig, även om vi inte hade känt till de dolda mekanismerna. Då skulle ju systemet fungera även om en viss komponent saknas eller är felaktig. Jag ber att strax få återkomma med ett tydligt exempel på detta i samband med att jag diskuterar blödarsjuka nedan (som just är en sådan dödlig sjukdom).

Att försöka förklara alla komplexa system med hjälp av någon form av redundans är inte speciellt övertygande och ger också upphov till nya problem, till vilka jag också återkommer senare. Men innan dess skall vi titta på några ytterligare möjligheter.

4. Kranar och byggnadsställningar används när vi t ex bygger hus. Kranar och byggnadsställningar är system som möjliggör konstruktionen av hus etc, vilka är betydligt mer komplexa än vad som skulle vara möjligt utan dessa hjälpmedel. Ett annat exempel är byggandet av ett valv (valvbåge). Detta måste bäras upp av en ställning innan man får slutstenen på plats. Sedan kan ställningen tas bort, eftersom valvet nu bär upp sig självt. När bygget är klart, finns det inte längre kvar några spår av de kranar och byggnadsställningar som använts. Överfört på biologiska system kan man kalla motsvarigheten till kranar och byggnadsställningar för supportsystem. Sådana systemen kan själva vara reducibla (dvs kan ha uppkommit stegvis). Under själva utvecklingen av ett visst system kan ett sådant supportsystem vara nödvändigt. Supportsystemet ger en slags extern redundans, eftersom det system som håller på att utvecklas, kan fungera trots att det ännu inte innehåller alla de byggstenar som är nödvändiga, när supportsystemet inte längre finns kvar. När systemet har utvecklats så långt att det kan fungera självt, tillbakabildas supportsystemet och försvinner. Det färdiga systemet är således irreducibelt komplext, eftersom det inte fungerar om man tar bort något av delsystemen. Eftersom supportsystemet nu försvunnit, får vi problem att bevisa hur det irreducibla systemet kommit till. Om vi inte hittar några rester av supportsystemet, blir vi hänvisade till "just-so stories", vilket är synnerligen otillfredsställande och vetenskapligt tveksamt.

Rent epistemologiskt (kunskapsteoretiskt) finns ingen skillnad mellan ett (support)system som fullständigt utplånat sina spår, och ett system som aldrig existerat. Observationellt är resultatet exakt detsamma. Vi kan alltså aldrig med säkerhet veta om ett supportsystem, som fullständigt försvunnit, verkligen existerat, eller om dess existens är en ren spekulation. Eftersom det inte finns några spår kvar av supportsystemet, kan vi inte heller veta om detta verkligen var reducibelt. Detta är ett mycket allvarligt problem. Om vi inte kan bevisa att supportsystemet var reducibelt, har vi ju inte förklarat någonting. I så fall har vi ersatt ett ickereducibelt system med ett eventuellt annat likadant system. Svaret, "Ja men tänk om det försvunna supportsystemet var reducibelt då!" är inget vetenskapligt argument, det utgör en del av en "just-so story" och inget annat. Den berömde evolutionsbiologen Stephen Jay Gould kommenterade vid ett tillfälle bristen på fossila övergångsformer med, "Evolutionen kan inte alltid ske någon annanstans". Ungefär samma sak skulle man kunna säga om ovanstående.

Nu kanske någon invänder att jag är orättvis. Det ligger i sakens natur att man inte kan hitta bevis för alla evolutionära processer. Alltså måste det vara tillåtet att spekulera om möjliga vägar som evolutionen kan ha tagit. Jag håller med om att det är svårt att studera historiska händelser, vilket det handlar om i detta fall. Men då borde detta också stämma evolutionisterna till en viss ödmjukhet och försiktighet. Verkligheten visar att det i själva verket är precis tvärtom. Det finns ingen kategori forskare, som uttalar sig med samma aggressiva säkerhet (evolutionen är ett faktum!), och som uppvisar så mycket förakt mot den som har minsta lilla invändning, som evolutionsbiologerna.

Ovanstående visar också på biologernas motsägelsefullhet. Man förnekar med näbbar och klor, ja närmast fanatiskt, att det finns irreducibelt komplexa system. Men om supportsystem förekommit under systemets evolution, erkänner man samtidigt att slutresultatet kan vara just ett irreducibelt komplext system, dvs man erkänner att det existerar irreducibelt komplexa biologiska system. Skillnaden är att man nu, genom att anföra supportsystem, tror sig ha en förklaring till hur det irreducibelt komplexa systemet kunnat uppkomma. Man kan undra varför det då är så viktigt att bevisa att irreducibel komplexitet inte existerar, när man samtidigt kan erkänna att sådan komplexitet faktiskt existerar. Nåja, jag skall inte bråka om det, men det är intressant att notera.

För att återvända till vår diskussion om supportsystem, så finns problem även här. Det är rimligt att fråga sig vad supportsystemet hade för funktion innan det blev supportsystem till ett annat system? Ett möjligt svar är att det inte hade någon egen funktion. Detta är det minst trovärdiga alternativet, eftersom systemet i så fall inte borde ha selekterats av evolutionen och aldrig borde ha uppkommit. Som påpekats ovan, kan inte ett system selekteras för någon framtida funktion (t ex som supportsystem) om det inte har någon funktion just när det selekteras.

En mer tilltalande möjlighet är att supportsystemet hade någon annan viktig och självständig funktion innan det blev ett supportsystem. En funktion som skiljer sig från det slutgiltiga irreducibla systemets funktion. Problemet här är att i så fall borde supportsystemet finnas kvar efter att det irreducibla systemet uppkommit. Även här hänvisas vi till "just-so stories" för att förklara varför supportsystemet försvunnit. Dessutom är det osannolikt att ett system som anpassats för en viss funktion, plötsligt skulle börja utföra en annan funktion. Detta kräver ju i sig komplicerade förändringar i systemet, som inte är lätta att förklara. Dvs man blir i bästa fall av med ett problem, men står nu där med två nya problem.

Den tredje, och mest sannolika möjligheten, är att supportsystemet (som är reducibelt) utförde samma funktion som den irreducibelt komplexa slutprodukten. Detta är ju egentligen en form av intern (eventuellt dold) redundans (en slags temporär redundans), eftersom vi då har två system, ett som kan utföra funktionen och ett system som håller på att utvecklas (med stöd av supportsystemet) för att utföra samma funktion (eventuellt mer optimalt). Problemet här är att vi inte får någon verklig förklaring till hur något av systemen uppkommit (även om vi eventuellt slipper problemet med irreducibel komplexitet). Det enda den här modellen säger är att vi har två system, som båda kan utföra samma sak, och där det ena hjälper till att förbättra det andra. Jag kan inte se att detta innebär någon verklig förklaring. Om vi t ex tar exemplet med bakteriernas simförmåga så måste, om vårt antagande är korrekt (supportsystemet hade samma funktion som det färdiga, irreducibla systemet), redan supportsystemet gett bakterien förmåga att förflytta sig. Då återstår att förklara hur något som i stort sett har samma funktion som bakteriemotorn, har kunnat utvecklas gradvis. Dessutom är det mindre kostnadseffektivt när det gäller energi, att ha två parallella system, när det räcker med ett. Individer med dubbla system som båda gör samma sak (vilket teoretiskt kan åstadkommas genom s k gendubbling), hushållar sämre med sin energi och borde därför selekteras bort.

Men det finns ett ytterligare problem med supportsystem. Det först bildade systemet måste kunna samarbeta med det system som håller på att utvecklas. Proteiner och enzymer har en mycket komplex tredimensionell form, vilken bestämmer deras funktion. För att två system skall kunna samarbeta, som fallet är med supportsystem, måste de proteiner och enzymer som är inblandade passa ihop tredimensionellt i varandra, ungefär som nyckeln i ett lås (på liknande sätt som en donerad lever måste passa ihop med mottagaren). Jag återkommer till detta problem.

Dessutom utgör redundans och supportsystem ingen verklig förklaring. Det visar bara (i bästa fall) att vissa system som tycks vara irreducibelt komplexa bara är detta skenbart (redundans), eller också att det tidigare funnits supportsystem, vilka gjorde att systemen då inte var irreducibelt komplexa. Om det skulle finnas verkligt irreducibla system, vilket mycket talar för att det gör, utgör detta ett starkt argument mot evolutionsteorin i sin nuvarande tappning, eftersom sådana system omöjligen skulle kunna uppkomma med hjälp av de evolutionsmekanismer som idag är kända. Om nu biologerna skulle lyckas bevisa (vilket framstår som mycket osannolikt), att det inte existerar några verkligt irreducibelt komplexa biologiska system, har man inte bevisat att evolutionen är hela förklaringen till allt liv på Jorden eller ens att den är en möjlig förklaring. Det enda man har bevisat är att den inte är omöjlig (vilket den vore om det fanns verklig irreducibel komplexitet). Men att den inte är omöjlig, bevisar inte att den är möjlig. Det är t ex inte omöjligt att vinna högsta vinsten på Lotto, stryktips, Joker och Kendo varje vecka 30 år i följd, genom att varje gång köpa en enda lott eller rad i varje spel. Ingen människa kommer dock någonsin att vinna högsta vinsten i Lotto, stryktips, Joker och Kendo, genom att köpa en lott eller rad i varje spel, ens en enda gång, och ännu mindre vecka efter vecka i 30 år. Så små sannolikheter, som det här handlar om, inträffar aldrig i ett ändligt, begränsat universum. För att kringgå denna svårighet menar vissa forskare att universum antagligen är oändligt. Detta leder emellertid till nya problem. Dels leder det till rent fysikaliska problem, som jag inte går närmare in på här. Men det leder också till filosofiska problem. Det är inte (ens teoretiskt) möjligt att avgöra om universum verkligen är oändligt, bl a eftersom det av vissa skäl är principiellt omöjligt att observera universum bortom ett visst avstånd från oss (galaxerna bortom denna gräns avlägsnar sig från oss med hastigheter högre än ljusets — denna rörelse beror inte på galaxernas egenrörelse i universum utan på rum-tidens expansion, som inte sätter någon övre gräns för galaxernas "hastigheter relativt oss). För att bli av med en Designer, som man menar är en spekulativ och obevisbar förklaring, anför man här en annan lika spekulativ och obevisbar förklaring. Detta är inte vetenskap, det är ideologi och inget annat (en ansats att försöka lösa detta problem för ateismen är teorin för parallella universum).

5. Evolutionsbiologen Stephen Jay Gould m fl skiljer mellan adaptioner och exapationer. Båda syftar på egenskaper, dvs i förlängningen gener. En adaption är en egenskap hos en organism, som selekteras av evolutionen på grund av att den är fördelaktig vid selektionstillfället (evolution genom anpassning). Adaptioner är således egenskaper som omedelbart gynnas av det naturliga urvalet. Exaptationer, som sällan nämns i elementära läroböcker, är egenskaper som utvecklas, antingen av inget skäl alls (t ex att de åker snålskjuts på andra anlag), eller också för andra ändamål och senare koadapteras (på engelska "cooption", vilket låter konstigt om man försvenskar det, varför jag översätter det till koadaption — betydelsen framgår nedan) med andra anlag till sin nuvarande funktion. Ett exempel man brukar ta är utvecklingen av fåglarnas flygfjädrar, vilka man anser från början utvecklades för temperaturreglering, men senare adapterades för flygning (huruvida detta är korrekt eller ej, vet man inte, det är en av många möjliga, men ännu ej bevisade teorier inom evolutionskonceptet). Ett annat exempel är ögats utveckling, där man menar att det först kan ha uppstått ljuskänsliga celler. Dessa hade kanske någon överlevnadsfördel, t ex att de kunde producera D-vitamin. Så småningom skedde nya mutationer och dessa kombinerades (koadapterades) med de ljuskänsliga celler som redan fanns, till ett primitivt öga. Dvs ögats ljuskänsliga celler utvecklades inte initialt för att utgöra en del av ett öga utan för en helt annan funktion (att bilda D-vitamin).

Det sista påståendet utgör en grov förenkling. Syntetisering av D-vitamin är knappast någon trivial funktion. En person som inte är utbildad kemist och inte har tillgång till ett kemilaboratorium, skulle behöva ägna månaders, ja kanske års hårt arbete, och spendera mycket pengar, innan han eller hon kunde börja framställa vitamin D hemma i köket. Att konstruera ett system som framställer vitamin D är ingen trivial uppgift i sig och att lite slappt hänvisa till att de första ljuskänsliga cellerna kanske framställde vitamin D, som om detta vore helt banalt, framstår nästan som bedrägeri (läsaren kan ju roa sig med att läsa lite på Wikipedia om syntes av vitamin D, för att få en uppfattning om problemets svårighetsgrad).

För att koadaptionen, dvs förenandet av separata delar för att utföra en gemensam funktion, skall fungera, krävs att ett flertal förutsättningar är uppfyllda.

1. Tillgänglighet. Bland de användbara delar som är tillgängliga för koadaption, måste det finnas de delar som är nödvändiga för det slutliga systemets funktion.
2. Synkronisering. Tillgängligheten hos dessa delar måste synkroniseras så att de är tillgängliga, antingen individuellt eller i olika kombinationer, när de behövs.
3. Lokalisering. De delar som skall ingå i det färdiga systemet måste finnas tillgängliga i samma individ (eller samma cell om vi talar om mekanismer i cellens inre).
4. Koordination. Det räcker inte med att alla nödvändiga delar finns tillgängliga och befinner sig på samma plats vid samma tidpunkt. Delarna måste koordineras på rätt sätt så att systemet fungerar. Ett visst antal delar kan normalt sammansättas på många, många olika sätt (har vi många delar blir antalet möjliga konfigurationer oerhört stort), och majoriteten av dessa olika konfigurationer leder inte till ett fungerande system. Delarna måste sättas ihop på rätt sätt och i rätt ordning.
5. Kompatibilitet. Delarna måste vara kompatibla, dvs kunna växelverka på rätt sätt med varandra. Detta kommer att diskuteras detaljerat nedan.

Det är inte lätt att förstå hur en blind evolution, som inte kan planera för framtiden, skulle kunna uppfylla dessa fem punkter. Exaptation innebär ju att delarna antingen är icke-funktionella eller utför en annan funktion, innan de kombineras (koadapteras). Innan delarna sätts ihop måste de således utvecklas, oberoende av varandra, så att de finns tillgängliga vid rätt tidpunkt och på rätt ställe och dessutom passar ihop. Det är nästan lika svårt att förklara hur förhållandevis enkla, lämpliga delar kan sättas ihop till ett komplext system, som det är att förklara det färdiga systemet. Frågan är således om exaptationer med koadaptioner är en verklig förklaring eller om det är en rökridå som gör att man hoppas slippa förklara detaljer, vilka man i själva verket inte kan förklara.

Det är ungefär som att jag skulle ge läsaren en påse som innehåller alla delarna till en TV (kretskort, chips, spolar, transistorer, kondensatorer etc). Visserligen är här punkterna 1,2,3 och 5 uppfyllda. Delarna är givetvis tillgängliga, kompatibla etc. Men punkt 4, koordination, återstår. Det finns oerhört många sätt att kombinera delarna, men bara ett fåtal av dessa kombinationer ger en fungerande TV-apparat. Att sätta ihop delarna till en TV är inte alls någon trivial uppgift, ens med en ritning (och då handlar det ju om design), och jag är övertygad om att de flesta människor, som inte kan någonting om elektronik, skulle misslyckas kapitalt.
Dessutom är ju delarna till TV:n komplexa system i sig. En transistor, för att inte tala om ett chips är mycket, mycket krävande att tillverka. Det tycks som att koadaption inte är så trivialt, och enligt min mening utgör detta inget slutgiltigt svar på hur komplexa ickereducibla system har kunnat uppkomma (ja inte ens på hur komplexa reducibla system har kunnat uppkomma, eftersom även där har vi liknande problem, t ex koordination).

H Allen Orr, f n professor i biologi vid Universitet i Rochester, är en av de forskare som försökt förklara hur till synes irreducibelt komplexa system har kunnat uppkomma. Han erkänner att ett system eller en del av ett system, som är optimerat för en viss funktion, har mycket liten sannolikhet att optimeras för att utföra en annorlunda funktion i ett annat system, eftersom detta skulle kräva förutseende, något som evolutionen inte har. Orr har i en artikel "Darwin v. Intelligent Design (Again)" i Boston Review (December/January 1996-1997) försökt ge en mer trovärdig förklaring än koadaption.

Logiken är mycket enkel. En del A utför initialt en viss uppgift (kanske inte speciellt bra). En annan del B tillkommer senare, eftersom den hjälper A. Denna nya del är inte väsentlig, den förbättrar bara funktionen. Men senare förändras A (eller något annat) på så sätt att B nu blir oumbärlig. Denna process fortsätter när ytterligare delar inkluderas i systemet (sid 29).

Resonemanget framstår som synnerligen spekulativt, och jag kan inte se att det principiellt innebär något annorlunda än de alternativ vi redan diskuterat. Det tycks som att Orrs resonemang innebär en kombination av dold redundans och koadaption, men uttryckt lite mer poetiskt. Själva resonemanget utgör ett typexempel på "just-so stories".

Det tycks som att exaptation med koadaption skulle kräva en uppifrån-och-ned-design. Det är ju så mänskliga konstruktörer arbetar (t ex när man konstruerar en TV). Först planerar man det färdiga systemet och sedan utarbetar man detaljer och sätter samman dessa. Den slutliga lösningens form föregår så att säga formulerandet av detaljerna. Man går alltså från helhet till detaljer. Så arbetar man i allmänhet inom datorprogrammering och till och med när man skriver böcker. Problemet med datorprogrammering, där man har ett program som består av olika moduler, är att få modulerna att kommunicera med varandra. Ett ytterligare exempel på kommunikation är Internet, där mängder av datorer, som var och en kan betraktas som en modul, kommunicerar. De protokoll man använder för att möjliggöra denna kommunikation (t ex TCP/IP) är mycket avancerade och bakom dem ligger intelligent design i dess högsta potens.

Låt oss nu tillämpa koadaption på ögats utveckling. Även om vi har ett primitivt öga med ljuskänsliga celler (det behöver inte ens finnas någon optik, eftersom det kan vara värdefullt att bara kunna skilja mellan ljus och mörker), vilka omformar det mottagna ljuset (fotonerna) till elektriska signaler, som via synnerven leds in i hjärnan, måste hjärnan kunna tolka dessa signaler. Att bara ansluta en synnerv till en hjärna kommer inte att fungera, eftersom det måste finnas ett fungerande protokoll. Det är inte helt lätt att förstå hur denna koadaption gått till. Dessutom måste hjärnan få individen att agera utifrån den mottagna informationen på ett sådant sätt att detta är gynnsamt för individen.

Fysikaliska signaler är inte självtolkande. Om vi t ex skulle koppla en vanlig scartkabel (som man kan använda för att koppla ihop en TV och en DVD-spelare) från en TV in i vår hjärna, skulle vi inte se TV-bilden eller höra ljudet. Hjärnan kan inte tolka signalerna från TV:n. De elektriska signaler som kommer från t ex synnerven in i hjärnan, kan tolkas på oändligt många sätt, men bara ett fåtal av dessa tolkningar kommer att vara gynnsamma för individens överlevnad. En möjlig tolkning av de elektriska signalerna från synnerven kanske är att en rasande grizzlybjörn just nu är på väg mot mig. Om detta verkligen är sant, gäller det dessutom att mitt beteende (spring för livet, spela död, släng ett spjut) är relevant, om mitt synsinne skall vara till någon nytta och öka sannolikheten för min överlevnad.

Redan påståendet "ljuskänsliga celler, vilka omformar det mottagna ljuset till elektriska signaler…" utgör en grov förenkling av något oerhört avancerat. Michael Behe anser synsinnet vara ett exempel på ett icke reducerbart system. Han beskriver i "Molecular Machines" (en skrift som presenterades sommaren 1994 vid C S Lewissällskapets årsmöte) detaljerat de biokemiska processer som gör att varje mottagen foton omvandlas till en elektrisk signal:

När ljus i form av en foton träffar näthinnan, absorberas fotonen av en organisk molekyl kallad 11cisretinal, vilket leder till att denna molekyl inom picosekunder [biljondels sekunder] ombildas till transretinal. Förändringen av retinalet åstadkommer en motsvarande förändring av proteinet rhodopsin, till vilket det är bundet. Som en konsekvens av detta proteins omvandling ändras dess egenskaper på ett speciellt sätt. Det växelverkar nu med ett annat protein kallat transducin. Innan växelverkan med rhodopsinet, så är transducinet hårt bundet till en liten organisk molekyl kallad GDP, men när transducin binds till rhodopsin, dissocieras GDP från transducinet och en molekyl kallad GTP, som är nära relaterad med, men kritiskt annorlunda än GDP, binds till transducinet.

Sedan fortsätter beskrivningen av de olika biokemiska reaktioner, vilka så småningom leder fram till att hjärnan tar emot en elektrisk signal från det stimulerade området av näthinnan. Ovanstående utgör endast en liten del av de processer som är nödvändiga för att omforma fotoner till elektriska impulser.

En designer arbetar normalt uppifrån och ned. Evolutionen däremot är begränsad till att arbeta nedifrån och upp, dvs går från detaljer till helheten (individen). Slumpvisa mutationer ger målarpaletten så att säga, och det naturliga urvalet väljer sedan ut vilka färger som skall finnas kvar. Evolution kan, som tidigare påpekats, inte lagra användbara mutationer, för att dessa kan vara bra att ha i framtiden. Det är mycket svårt att förstå hur ett system som arbetar nedifrån och upp, skulle kunna uppfylla de fem punkterna ovan och speciellt då den femte punkten (kompatibilitet), vilken vi nu skall diskutera.

Som nämnts tidigare är blodets koagulering ett möjligt exempel på ett irreducibelt komplext system. Blödarsjuka finns i flera olika former och en av dem (typ B) orsakas av fel på koagulationsfaktor IX (också kallad "Christmas factor" — se också tidigare bild).

Defekt hos faktor IX (Christmas faktor) orsakar blödarsjuka typ B (hemofili B). Över 100 mutationer av faktor IX har observerats. Några orsakar inga symptom (vissa mutationer är neutrala), men de flesta leder till problem med blodkoaguleringen. Man upptäckte 1952 att just denna faktor var defekt hos en ung pojke vid namn Stephen Christmas (därav namnet) och att detta ledde till hemofili.

Jag har tidigare nämnt att den tredimensionella formen hos proteiner och enzymer måste passa in i varandra för att de skall kunna växelverka. Om vi antar att blodkoaguleringsfunktionen uppkommit stegvis, genom exaptation (dvs genom att de första proteinerna kanske använts för något annat ändamål) och så småningom börjat samarbeta med senare uppkomna proteiner, står vi inför ett mycket svårt problem. Två proteiner kan inte samverka utan vidare. För att dessa skall kunna växelverka i komplicerade kedjor av kemiska reaktioner, måste deras tredimensionella former passa ihop (detta beskriver jag närmare i denna korta artikel). Sannolikheten för att ett slumpgenererat protein (mutationer anses ju allmänt vara slumpgenererade) skall passa ihop med ett tidigare existerande protein måste vara försvinnande liten, med tanke på det enorma antalet möjliga tredimensionella former. En designer, som arbetar utifrån ett uppifrån-och-ned-perspektiv, skulle kunna åstadkomma den här typen av koadaption (t ex så passar alla delarna i en TV ihop, när man sätter samman TV:n, eftersom delarna är designade för att passa ihop — när en TV-fabrik beställer motstånd, kondensatorer, chips etc från respektive tillverkare, ser man givetvis till att dessa är kompatibla med varandra). Det är betydligt svårare att förstå hur evolutionen skulle kunna åstadkomma något motsvarande, eftersom den arbetar nedifrån och upp. Om evolutionsteorin i verklig mening skall kunna förklara uppkomsten av komplexa system, tycks det som att den måste uppdateras med nya, ännu okända mekanismer.

Bilden visar hur en sträng av aminosyror veckas till ett protein, vars funktion bestäms av dess tredimensionnella form.

Liknande problem finns när det gäller organdonation. Alla vet hur svårt det är att hitta ett passande hjärta till en patient. Ibland får patienten vänta i åratal och ibland hittar man överhuvudtaget ingen lämplig donator. Sannolikheten att ett hjärta, som valts slumpmässigt, skulle passa till en viss person är oerhört liten. Men den är antagligen oerhört mycket större än att ett slumpvalt proteins tredimensionella form skulle passa in i ett visst givet proteins tredimensionella form. Och utan att så är fallet, kan dessa två proteiner omöjligen växelverka med varandra.

En bakteriedrivsystem är som synes mycket komplext och består av många delar som måste fungera tillsammans (gisseltråden kallas här "filament").

När det gäller bakteriernas gisseltrådar har vi flera typer av problem (dessa ter sig ändå som triviala jämfört med uppkomsten av hela eldrivsystemet, vilket framgår av bilden ovan). Hos E Colibakterien är gisslet sammansatt av 50 olika proteiner (flera exemplar av varje protein ingår i gisslet). E Colis genuppsättning kodar för totalt 4 289 proteiner. Om man betänker det stora antalet proteiner som finns tillgängliga hos E Coli och det enorma antal olika sätt som dessa byggstenar kan kombineras på, måste oddsen vara obefintliga för att proteiner sätts samman på rätt sätt för att bilda en fungerande gisseltråd. Richard Dembski (matematiker och filosof och ett känt namn inom ID-rörelsen) har gjort en sannolikhetsuppskattning utifrån antagandet att 5 kopior vardera av de 50 proteinerna är nödvändiga för att tillverka en funktionell gisseltråd. Han kommer, utifrån vissa andra antaganden, fram till att sannolikheten för att de rätta molekylerna kombineras till en gisseltråd är ca 10-234. Ofta brukar man säga att sannolikheter mindre än 10-50 aldrig inträffar i vårt universum (klicka här för en förklaring av vad dessa små sannolikheter innebär). Varför skulle de rätta molekylerna dras till varandra för att bilda ett gissel? I evolutionen finns inget ändamål, utan evolutionen kan bara exploatera slumpmässiga kombinationer som uppstår spontant. Men även om nu slumpen skulle råka dra ihop de rätta proteinerna, trots att detta enligt ovan är ytterst osannolikt, måste sannolikheten för att deras tredimensionella former passar ihop (så att de kan växelverka) vara astronomiskt liten. Ovanpå på detta tillkommer sedan att passa ihop gisseltråden med själva bakteriemotorn (rotor, stator etc — se bild ovan).

Det tycks som att det långt ifrån är självklart att begreppet irreducibel komplexitet är vederlagt. Både redundans och exaptation med koadaption har allvarliga svagheter, och förutsätter spekulativa resonemang. Några av svagheterna har diskuterats ovan. Men det blir ännu värre.

Generna kan inte betraktas som otolkade "atomer" (minsta byggstenar), utan deras uttryck kräver tolkning (precis som att informationen från synnerven kräver tolkning). Generna kan således inte förstås, isolerade från cellmaskineriet. Gener och cellmaskineri (olika typer av RNA som läser av DNA-koden och sedan utifrån denna information sätter ihop proteiner och enzymer, reglerkretsar som ser till att rätt mängd av de olika proteinerna, enzymerna etc tillverkas och transporteras till de organeller där de behövs, felkorrigeringsmekanimser som sorterar bort felaktiga proteiner etc, etc) är integrerade till en helhet, som inte kan betraktas som av varandra oberoende delar. Det är svårt att förstå hur ett sådant integrerat system uppkommit genom en nedifrån-och-upp-process.

I min ganska omfattande artikel om biokemi (som jag tyvärr inte hunnit uppdatera på sistone) diskuterar jag bl a DNA:t och det komplexa cellmaskineriet. Jag nämner där begreppen exoner och introner. Exoner är den del av genomet (arvsmassan) som kodar för proteiner och enzymer etc (vissa gener kodar t ex inte för proteiner/enzymer utan för RNA). Större delen av arvsmassan (ca 97 procent) har, enligt vad man tidigare ansett, saknat funktion. Denna del har kallats introner. Att enbart 3 procent av genuppsättningen skulle ha funktion verkar orimligt ur energisynpunkt. DNA-molekylen är en oerhört energikrävande molekyl och betänker man att var och en av människans ca 100 miljoner miljoner celler innehåller 46 DNA-molekyler, där bara 3 procent har någon funktion, framstår detta som ett oerhört energislöseri. Det är mycket svårt att förstå varför i så fall intronerna inte har försvunnit under evolutionens gång. Individer med mindre mängd introner borde ju ha ett evolutionärt övertag genom att de hushållar bättre med sin energi. Och mycket riktigt så har forskarna på senare tid börjat misstänka att intronerna också har en funktion (i varje fall delvis).

När jag gick i gymnasiet på 1960-talets början fick man lära sig att generna fanns lagrade i kromosomer (hos människan 46 stycken kromosomer) och att gener bestämde olika egenskaper, som t ex ögonfärg hos människan eller färg hos blommor etc. När DNA-spiralens struktur avslöjades på 1950-talet, började en ny era inom biologin och genetiken. Det man tidigare kallat kromosomer, visade sig i själva verket vara DNA-molekyler. De nya upptäckterna ledde så småningom fram till insikten att gener inte bestämmer egenskaper direkt, utan att gener kodar för olika proteiner och enzymer, vilka i sin tur bestämmer egenskaper. Det storslagna HUGO-projektet (HUGO syftar på HUman GenOm, dvs människans genom), som ännu inte är helt avslutat, visade att antalet gener hos människan var betydligt mindre än man tidigare trott. Det tycks som att människan endast har 30 000 gener (man får lite olika resultat beroende på vilka metoder man använder för att räkna) medan människan samtidigt har hundratusentals proteiner och enzymer. Samma gen måste således på något sätt koda för flera olika proteiner. Hugo-projektet har visat att genomet inte bara direkt kodar för proteiner utan att genomet självt är en dator i flera nivåer. Genomet innehåller således inte bara information om en viss individ, utan också information om hur denna information skall behandlas (kallas metainformation), t ex när viss information skall läsas, hur den skall läsas och hur den skall regleras. Eventuellt sker mycket av denna styrning genom intronerna.

Den genetiska koden visar sig vara uppbyggd av moduler eller segment. Vissa segment sammanfaller dessutom. Ett visst segment kan användas för att koda för (delar av) flera olika proteiner. Det finns exempel på segment som utgör delar av koden för tusentals olika proteiner. Metainformation (se ovan) bestämmer således hur avläsningen av DNA:t skall ske. Läshuvudet i en hårddisk hoppar mellan olika ställen på hårddisken när det hämtar information (ett visst dokument kan ibland vara sönderstyckat så att det ligger på hundratals olika ställen på hårddisken — detta kallas fragmentering och drar ner hastigheten på datorn — det finns speciella program som defragmenterar hårddisken och på så sätt snabbar upp datorn). På samma sätt kan således en gen vara sönderstyckad (fragmenterad) och avläsningen hoppar då mellan olika segment (moduler) i genomet när ett visst protein sätts ihop. Om vi tänker oss att protein I kodas av segmenten 1-5-7-17-21... på en kromosom och att protein II kodas av segmenten 3-5-9-17-24... från samma kromosom, så ingår således segment 5 och 17 i båda dessa proteiner. Och som sagt, i verkliga livet kan vissa segment ingå i koden för hundratals eller till och med tusentals olika proteiner. Dessutom avläses en del segment både fram- och baklänges ungefär som att vi skulle få en annan saga om vi läste en sagobok baklänges. Och för att göra det hela ännu mer komplicerat, börjar ibland avläsningen för olika proteiner på olika ställen av ett och samma segment. Det är ungefär som att vi har en sagobok med den fantastiska egenskapen att börjar vi läsa på första bokstaven så läser vi Rödluvan och vargen och börjar vi på tredje bokstaven, så blir det en helt annan saga. Hur någonting så komplext skulle kunnat uppkomma ur enbart slump och blinda naturlagar är för mig en gåta. Och hur vissa människor kan vara så tvärsäkra på att så är fallet, ja så tvärsäkra att de till och med hånar och föraktar den som inte är lika säker, är för mig en ännu större gåta. Kanske den största av dem alla.

Här står vi inför ett avgörande problem för evolutionen, som jag menar talar starkt för ett uppifrån-och-ned-perspektiv, dvs för en Designer. Antag att det t ex skulle uppstå en mutation i segment 5 i exemplet ovan. Denna mutation skulle då inte bara påverka protein I utan också protein II (eftersom segment 5 ingår i båda dessa proteiner). Detta betyder att om en mutation ändrar en funktion i en cell, kanske den samtidigt ändrar hundratals eller eventuellt tusentals andra funktioner. Med antagligen förödande resultat för cellen (att alla dessa förändringar i hundratals eller tusentals proteiner skulle vara positiva eller neutrala, framstår som uteslutet). Det påminner om ett korsord, där två ord delar på en gemensam bokstav. Även om en slumpmässig ändring av denna gemensamma bokstav skulle göra att det ena ordet blev ett annat korrekt ord på svenska, är det osannolikt att det andra ordet också skulle bli ett korrekt ord. Och tänk då om vi skulle ha något slags multidimensionellt korsord, där hundratals ord delar på en gemensam bokstav, och att man ändrar denna bokstav slumpmässigt. Hur stor skulle då sannolikheten vara att alla orden fortfarande skulle vara verkliga ord? Den måste vara försvinnande liten. Det är mycket svårt att förstå hur en nedifrån-och-upp-design skulle kunna lösa detta problem. Däremot, om det finns en intelligent Designer bakom livets uppkomst, skulle vi förvänta oss att sådana lösningar vore fullt möjliga (åtminstone i vissa fall). Överhuvudtaget så tyder genomets modularitet på en bakomliggande Designer.

Ovanstående bokstavskvadrat (som man skulle kunna kalla för ett tvådimenstionellt palindrom — förklaras nedan) är känd sedan antiken. Texten, som är på latin, lyder "SATOR AREPO TENET OPERA ROTAS" och betyder ungefär "Såningsmannen vid namn Arepo upprätthåller hjulens funktion". Texten blir densamma läst i fyra olika ledder (från vänster till höger med början högst upp till vänster, från höger till vänster med början längst ned till höger, uppifrån och ned med början längst upp till vänster och slutligen nedifrån och upp med början längst ned till höger). Att konstruera en sådan kvadrat kräver mycket noggrann design. Det är svårt att tänka sig en "mutation" som skulle öka eller förbättra mängden information i kvadraten. Ändrar man en enda bokstav, kommer ju detta att påverka hela kvadraten och även om ett "muterat" ord skulle bli meningsfullt läst i en viss ledd (och även om hela den "muterade" meningen läst i en viss ledd skulle bli meningsfull), skulle texten läst i alla andra ledder bli ren rappakalja. Information av den typ som ges i bilden ovan kallas på engelska "polyconstrained", vilket betyder att den lyder under flera olika tvångsvillkor (för att den skall vara meningsfull). Även för betydligt enklare typer av information, som styrs av flera tvångsvillkor, är det svårt att se hur en punktmutation (se nedan) skulle kunna öka informationsinehållet. Palindrom är meningar där texten blir samma både fram- och baklänges (dvs en slags endimensionell motsvarighet till kvadraten ovan), t ex "Ni talar bra latin". Antag att det sista l:et "muterar" till ett v. Hela meningen framlänges blir då "Ni talar bra lavin", vilken visserligen innehåller korrekta ord (överfört på genetik korrekta codoner, dvs kodar för korrekta aminosyror), men själva innebörden är helt meningslös (vilket överfört på genetik innebär att det protein som nu produceras förmodligen är icke funktionellt eller kanske t o m skadligt — sannolikheten att det skall innebära en förbättring måste vara mycket liten). Även baklänges får vi nu en mening utan innebörd. Överfört till genetik: Sannolikheten att båda de nya proteinerna — som bildas genom avläsning av en genmodul, dels fram- och dels baklänges — kommer att innebära en överlevnadsfördel jämfört med de ursprungliga proteinerna, måste vara i stort sett noll!

Nu kan man givetvis invända att ovanstående inte gäller för de moduler som kodar för bara ett protein eller en del av ett protein eller som bara läses av i en enda riktning. Och det är helt korrekt. De moduler som bara påverkar ett enda protein kan mutera utan att det påverkar något annat protein. Tyvärr vet jag inte hur stor procent av de olika genmodulerna som bara påverkar ett enda protein. Det skulle vara intressant att veta och också huruvida denna siffra skiljer sig avsevärt mellan olika arter. Men genmoduler som kodar för flera proteiner utgör i alla fall ett problem, eftersom detta begränsar sannolikheten för positiva mutationer. Endast mutationer som inträffar i moduler som kodar för ett enda protein kan föra evolutionen framåt, under förutsättning att de är positiva. De flesta mutationer är emellertid neutrala eller negativa.

Proteiner består ju av långa kedjor av aminosyror. DNA:t kodar för dessa aminosyror. Tre kvävebaser kodar för en aminsosyra (en sådan uppsättning av tre kvävebaser kallas en codon) och vissa speciella codons utgör start- och stoppcodons, vilka bestämmer var avläsningen av DNA:t skall börja och sluta (den avlästa sekvensen av aminosyror sätts sedan ihop av cellmaskineriet till ett protein eller enzym). Om en kvävebas i DNA-molekylen förändras (kallas punktmutation), vilket innebär att en aminosyra ersätts av en annan aminosyra i det färdiga proteinet, har detta ibland ingen påverkan på proteinets tredimensionella form, dvs dess funktion. (vissa utbyten av aminosyror påverkar således inte proteinets eller enzymets funktion). I detta fall har vi en neutral mutation.

Det är ju ganska självklart att slumpvisa förändringar i ett redan ganska optimerat system sällan förbättrar systemet. Eftersom mutationer i de delar av genomet som kodar för flera proteiner i stort sett aldrig kan vara positiva (av orsaker som nyss diskuterats) minskar ytterligare sannolikheten för att en mutation skall vara funktionellt positiv.

En människokropp består t ex av ca 100 miljoner miljoner celler (jag tar här människan som exempel, det följande resonemanget gäller i princip för alla organismer). Det är endast mutationer i könsceller (spermier eller ägg) eller i könsmoderceller, eller som inträffar så tidigt under fosterstadiet att alla den blivande individens celler påverkas, som kommer att föras vidare till avkomman. Inträffar en mutation i en hudcell eller i levern, kommer detta inte att föras vidare. Men inte nog med det. De flesta ägg och spermier befruktas aldrig. En sädesuttömning kan innehålla upp till flera hundra miljoner spermier. Normalt är det endast en av dessa spermier som befruktar ett ägg. Om det nu överhuvudtaget sker någon befruktning. De flesta sädesuttömningar ger inte upphov till någon avkomma. Det är bara mutationer i den sädescell som får tillfälle att befrukta ett ägg (eller i något ägg som befruktas), som förs vidare till nästa generation, dvs som på något sätt kan delta i evolutionen. Endast en oerhört liten del av de mutationer som sker förs således vidare till nästa generation och endast de mutationer som sker i DNA-moduler som kodar för ett enda protein har potential att vara positiva (som vi sett ovan). Slutligen är endast en liten del av mutationerna positiva.

Dessutom visar det sig att många "positiva" mutationer (t ex när bakterier blir resistenta mot antibiotika, vilket är positivt ur bakteriens synpunkt) innebär att information försvinner i genomet (i fallet anitbiotikaresistens så gör sig bakterierna av med vissa anlag). Det är svårt att tänka sig en utveckling från encellig organism till människa, som konsekvent bygger på att information hela tiden försvinner. Det skulle ju i så fall betyda att en bakterie skulle vara mer komplex (innehålla mer information) än en människa. Det är ju lite grand som när en armé retirerar och bränner allt efter sig och sprängar alla broar. Det kan ju rädda armén, och vara positivt i en viss bemärkelse. Men det kommer knappast att vinna kriget eller rädda landet på sikt. Att tillfälligt retirera kan vara positivt. Men inte att alltid retirera. Det slutar med undergång.

När bakterier, genom att mutera, utvecklar antibiotikaresistens, innebär detta att bakterien förlorar vissa cellfunktioner (vissa gener stängs av). Resistensen utgör därför inte någon positiv mutation på lång sikt (lika lite som att retirera och spränga alla broar vinner ett krig på lång sikt). Så fort antibiotikatrycket upphör, konkurreras de muterade bakterierna ut av de icke muterade bakterierna. Under ett konstant antibiotikatryck (vilket vi får när läkarna skriver ut antibiotika alltför lättvindigt) kommer förvisso endast muterade bakterier att överleva (i just den population som utsätts för antibiotika). Men problemet kvarstår i alla fall. Information har försvunnit och det är svårt att förstå hur evolution mot mer och mer komplexa livsformer skulle kunna förklaras av att information hela tiden försvinner.
I en artikel i Världen idag (13/2 2009) med titeln "Lyckade mutationer sällsynta" av Sture Blomberg (överläkare och docent i anestesi) m fl skriver man:
En sökning på "mutation" via databaserna Biological Abstracts och Medline gav 453 762 träffar, varav 186 (0,04 procent) nämnde ordet gynnsam, men då endast i mycket snäv bemärkelse, där det genomgående rörde sig om förlust av information.
Såvitt jag känner till finns inte ett enda exempel på en positiv (gynnsam) mutation som är informationsskapande (skulle läsaren känna till något sådant exempel tar jag tacksamt emot information om detta — då ökar ju i alla fall min information). Inte ett enda! Inom t ex växtförädlingen arbetade man under en period med att genom kemikalier och strålning mutera växter. Miljontals plantor utsattes för sådana experiment och resultatet blev växter som var sterila, missbildade och livsodugliga på olika sätt. Inte en enda gynnsam mutation observerades. Samma sak gäller liknande experiment som gjorts på bananflugor. När Richard Dawkins, en av vår tids skarpaste försvarare av evolutionsteorin, under en intervju ställdes inför frågan, "Kan ni ge ett exempel på en genetisk mutation eller en evolutionär process där vi kan se att informationen i genomet ökar?", blev han helt svarslös. Han bad att kameran skulle stängas av och sedan kom han med ett fullständigt nonsenssvar efter låååång betänketid. Läsaren kan se ett utdrag ur intervjun genom att klicka här. Även om vissa evolutionister/ateister senare har försvarat Dawkins svar och menar att svaret är relevant och korrekt, kommer vi inte ifrån att han inte kunde ge ett enda exempel på en positiv, informationsökande mutation. Inte ens efter lång betänketid! Inte ett enda exempel!

Men det finns fler problem än att information försvinner. Den berömde japanske populationsgenetikern Mooto Kimura, som också var en duktig matematiker, kom i sina analyser fram till att endast 0,4 procent av den fenotypiska variationen (variationer hos individerna i en art, till skillnad från genotypisk variation som innebär variationer i genomet) beror på ärftliga, genetiska faktorer. Förklaringen till detta är, enligt Kimura, att en mycket stor del av en individs överlevnad beror på andra faktorer som miljö i kombination med slump (eller tur om vi så vill). Om t ex hälften av alla romkorn från en viss fiskart äts upp av andra fiskar, är det knappast relevant att tala om "survival of the fittest (den bäst anpassades överlevnad)". De romkorn som "överlever" har helt enkelt tur (visst kan det ibland finnas andra faktorer som att kanske vissa romkorn smakar illa eller något liknande, men generellt handlar det om tur). Samma sak när man trålar. Vissa fiskar i ett stort sillstim överlever helt enkelt därför att de råkade befinna sig på en annan plats än de fiskar som fångades av trålen. Det är svårt att se att några genetiska faktorer skulle kunna påverka detta. Frön som sprids för vinden hamnar på olika ställen. Många faller ner där de helt enkelt inte kan gro och de får inte chansen att sprida sina anlag i populationen. Men ingenting säger att just dessa fröns anlag var sämre än anlagen hos frön som "hade tur". "Survival of the luckiest (de tursammaste överlevnad)" kommer knappast att "förädla" arten genom att selektera bort dåliga anlag. Och enligt Kimuras beräkningar har sådana icke-optimerande faktorer den absolut dominerande betydelsen för vilka anlag som överlever och sprids. Selektionstrycket utifrån genetiska faktorer är således ganska svagt.

Många av de senaste årens nobelpris i medicin och kemi kan betraktas som nobelpris i intelligent design. De pris jag avser har handlat om det oerhört komplexa cellmaskineriet. Jag har ju nyss nämnt att cellmaskineriet utgör ett integrerat system, där delarna är beroende av varandra och integrerade till en helhet (klicka här för en kortfattad beskrivning av cellmaskineriet). Det tycks som att förklaringen av detta komplexa maskineri kräver mer än bara ett "det råkade bli så". Här handlar det om själva livets uppkomst, vilket innefattar mycket större svårigheter än evolutionen. Arter kan förändras gradvis, det vet vi. Orsaken till detta är att varje organism innehåller information om sin egen konstruktion (i DNA:t). När livet uppstod kan vi till en början inte haft en gradvis utveckling, eftersom det inte fanns någon minnesfunktion. Först när DNA-molekylen (som redan den är oerhört komplicerad), eller något förstadium till denna, uppkommit, kunde livet börja utvecklas gradvis. Det första primitiva livet måste således bildats genom ett enda gigantiskt, och oerhört osannolikt, slumpsprång. I KTH-nytt 7/96 intervjuades Professor Clas Blomberg, en av Sveriges ledande experter på teorierna för livets uppkomst. Hän säger:

Men kontrollmekanismerna som upprätthåller livet kan inte ha funnits före livet själv, eftersom de ju också är resultat av livets utveckling. Livsforskningen står inför en paradox. Clas tänker att det måste ha börjat i en miljö med en mycket stor mängd olika molekyler, en sorts urkaos, där livet uppstod i ett språng, med kontrollmekanism och allt. Språnget uppstod av en slump, men slumpens förutsättning var mångfalden av möjligheter.

I Ny Teknik, nr 10 2001, fanns en artikel med titlen "Hackern som räddade Hugo". Den handlade om Jim Kent, biolog och programmerare, som med hjälp av sitt program Gigassembler lyckats sammanfoga de olika genfragmenten. Detta program hade en avgörande betydelse för Hugoprojektets framgång. Jim Kent säger i artikeln,

Det som fascinerar mig mest inom biologin är det reglersystem som finns i arvsmassan. Många gener är självreglerande, andra styrs av andra delar av genomet som de i sin tur påverkar. I slutändan fungerar vårt DNA som ett neuralt nätverk i tre-fyra nivåer över varandra. Det är en dator i soppform.

Som jag nämnt tidigare så innehåller genomet inte bara information utan också metainformation, dvs information som styr den basala informationen. Enligt Jim Kent är det mer komplicerat än så. Människans genom består av tre eller eventuellt fyra informationsnivåer. Vi kan således här tala om information, metainformation (som kontrollerar informationen), metametainformation (som kontrollerar metainfomrationen) och eventuellt ytterligare en nivå. Hur någonting så komplicerat kunna uppkomma genom evolutionens blinda nedifrån-och-upp-processer framstår som ett mysterium. Metainformationen är ju värdelös och meningslös utan den information den reglerar. Och informationen är värdelös utan den kontrollerande metainformation. Det är svårt att inse hur redundans eller koadaption skulle kunna förklara de olika hierarkiska nivåerna i genomet. Antingen krävs, som jag ser det, en omfattande revidering av evolutionsteorin eller också är denna teori felaktig (jag talar då inte om mikroevolution, dvs anpassning, vilken enbart innebär smärre förändringar av en art — att denna typ av evolution fungerar kan vi ju observera — men att bakterier kan bli resistenta mot antibiotika bevisar inte bortom varje rimligt tvivel att encelliga organismer kan bli till människor).

Påståendet att argumenten för intelligent design är vederlagda är felaktigt, vilket torde framgå av diskussionen ovan. Irreducibel komplexitet är ett begrepp som kan diskuteras och kritiseras, och vissa exempel som anförts, kan mycket väl vara felaktiga. Men begreppet som sådant är vare sig meningslöst eller ovetenskapligt (det som ligger utanför vetenskapens område är slutsatsen att irreducibel komplexitet pekar mot en övernaturlig Designer, inte irreducibel komplexitet i sig). Även om intelligent design är ett ovetenskapligt begrepp, kan det vara fruktbärande. Karl Popper, 1900-talets utan tvekan främste vetenskapsfilosof (av förklarliga skäl inte speciellt populär bland evolutionister), hävdade att även ovetenskapliga källor kan leda till värdefulla vetenskapliga insikter. Som exempel angav han Pythagoras talmystik och Newtons tro på en gudomlig lag som genomsyrade universum. Både dessa metafysiska ansatser ledde fram till synnerligen värdefulla teorier, vilka dramatiskt ökat människans förståelse av den värld hon lever i.

Att så lättfärdigt avfärda ID, som många evolutionister gör, är dels oärligt, dels till nackdel för vetenskapen och den fria debatten. Att kritisera ytliga och ogenomtänkta varianter av intelligent design, och sedan mena sig ha motbevisat ID, tyder på bristande insikter i vetenskapens spelregler. Dessa säger nämligen att den som anser ID vara en falsk teori, skall välja ut den mest genomtänkta och välformulerade testbara versionen av ID och sedan försöka falsifiera denna. Och falsifieringen får inte ske genom att hänvisa till obevisbara "just-so stories"!

Evolutionisternas förakt mot alla oliktänkande talar inte väl för deras sak. Kravet att alla forskare och till med alla "tänkande människor" skall böja sig för en dogmatisk världsbild, som visserligen delvis är en vetenskaplig teori, men som också har religiösa övertoner, har inget med vetenskap att göra. Så agerar en fanatisk ideologi som inte tål att motsägas.

Den observante läsaren, som kan lite grand om ID, har kanske noterat att jag i stort sett enbart diskuterat irreducibel komplexitet ovan och inte ens nämnt William Dembskis mycket viktiga begrepp "komplex specificitet" (en diskussion om detta begrepp finns i min huvudartikel om ID — sök på ordet Dembski). Det skulle emellertid blivit alltför omfattande att diskutera båda begreppen lika detaljerat i en och samma artikel.

 


En mycket bra bok, för den som vill fördjupa sig ytterligare i ovanstående, är Agents Under Fire av Angus Menuge (Rowman & Littlefield Publishers Inc, 2004). Angus Menuge är professor i filosofi vid Concordia University i Wisconsin. I ovanstående artikel har jag hämtat mycket inspiration och information från Manuges bok.

Tillbaka till "Intelligent Design"

© Krister Renard