Dator stabilitet i framtiden

Allt om hård- och mjukvara samt övriga it-relaterade diskussioner.

 Moderatorer: Alien, atoms

Dator stabilitet i framtiden

Inläggav Saninaé » 2008-08-21 16:20:14

All teknik har en sak gemensamt: Ju mer komplext desto fler saker kan gå fel.
Men datorer då? Kommer dom bli mer stabilare i framtiden ju mer komplexa dom blir? I Star Treck kan man bevittna att de flesta datorer fungerar ända till kastar in en granat i maskineriet. Även om allting pajar så brukar åtminstone några delar av datorn fungera istället för att hela rubbet slocknar. Beror det på att datorerna är så komplexa att dom inte är beroende av att enskilda delar fungerar?

Och så hjärnor, människor och djur kan överleva hjärnskador och även anpassa sig till att fungera bättre efter skadan. Beror det på komplexiteten eller är det för att vi är medvetna varelser?

Sammanfattat är det två frågor:
1, klarar datorer av skador bättre ju med avancerade dom blir?
2, måste en dator likna en hjärna(medveten) för att klara av skador lika bra, eller räcker det med att vara avancerad/komplex helt enkelt?
Senast redigerad av Saninaé 2011-05-04 15:22:42, redigerad totalt 1 gång.
Saninaé
Inaktiv
 
Inlägg: 1501
Anslöt: 2006-01-24
Ort: X mil från läsaren.

Inläggav storskojaren » 2008-08-21 16:44:21

1. Både ja och nej, ju mer komplicerad en maskin är ju fler arbetsuppgifter kan den utföra, går den då sönder kan det hända att den fortfarande kan utföra vissa uppgifter men inte andra.

Jämför med de gamla tv-apparaterna med inbyggd video. Två maskiner i en, men om tv-delen gick sönder så var video-delen värdelös, men tv-delen kunde fortfarande användas även om video-delen inte funkade

Samtidigt så är det sant som du säger att ju mer komplicerad en maskin är desto fler delar kan gå sönder.

Allt kommer an på hur beroende olika delar är av varandra och om olika delar kan fungera som backup för andra och det har lika mycket med en dators fysiska utförande ser ut som programering av mjukvaran.

2. Bara för att en dator är självmedveten så behöver den ju vara utrustad med ett system som kan reparera skador på hårdvaran själv.

Star Trek är sci-fi och behöver därför inte alltid vara logiskt.

Det här är mina tankar kring ämnet, men jag är ingen expert på området, någon annan kanske kan ge dig ett bättre svar.
Senast redigerad av storskojaren 2011-05-04 15:22:42, redigerad totalt 1 gång.
storskojaren
 
Inlägg: 405
Anslöt: 2008-03-09
Ort: sthlm norrort

Inläggav Telperion » 2008-08-21 17:51:00

En intressant sak som ryktats på sistone är att AMD:s nya trekärniga processorer är resultatet av att en processorkärna blivit defekt under tillverkningen av en fyrkärnig processor och därför kopplats bort redan i produktionsstadiet, så i det avseendet kan man helt klart säga att den ökade komplexiteten gett en ökad feltolerans gentemot tvåkärniga processorer. Prestandan skiljer sig inte alltför markant mellan tre processorkärnor eller fyra då det i dagsläget är praktiskt taget omöjligt att belasta alla till 100% under normal användning, men däremot torde en processorkärna som blivit defekt efter tillverkningen leda till omedelbar systemkrasch, så det fungerar bara till en viss gräns.
Senast redigerad av Telperion 2011-05-04 15:22:42, redigerad totalt 1 gång.
Telperion
 
Inlägg: 280
Anslöt: 2006-06-15

Inläggav nallen » 2008-08-21 20:38:43

Telperion skrev:[...] då det i dagsläget är praktiskt taget omöjligt att belasta alla till 100% under normal användning [...]

:shock:

Jag brukar inte ha några större problem att hålla alla 4 propparna i min beräkning- och kompileringsburk fullt sysselsatta åtminstonde nån timme åt gången... det är den normala användningen av den maskinen.

EDIT: inte kan jag skriva rätt siffror heller :(
Senast redigerad av nallen 2011-05-04 15:22:42, redigerad totalt 1 gång.
nallen
 
Inlägg: 19770
Anslöt: 2006-08-27
Ort: Vid Skogen

Inläggav Moggy » 2008-08-22 19:32:18

En möjlighet är att konceptet med "en dator, ett OS" övergesoch att utvecklingen istället går mot så kallade clouds eller vad detnu kommer att heta. En stor samling datorer/processorer körs tillsammans i ett moln med ett operativ som bygger upp en redundant virtuell maskin som inte är beroende av enskilda datorer för att fungera. OSet är hårdvarunära och något som användare eller applikationer i princip aldrig kommer kontakt med. Istället tillhandahåller det operativet virtuella maskiner där användare kör sina applikationer som inte nödvändigtvis behöver befinna sig på den fysiska dator man sitter med. Kanske flera nivåer av virtualisering där ett mellanlager av virtualisering används för att kontrolla fördelning av processorkraft och minne till repsektive användare för att hindra att användare kan sno åt sig mycket kraft av operativet.

Kör man en applikation som för tillfället kräver mycket processorkraft så används prestanda från de processorer i datormolnen som för tillfället inte används, allt givetvis kontrollerat av ett smart protokoll på lägre nivå som kontrollerar vilka befogenheter diverse applikationer och användare har i molnet.

De flesta datorer idlar typ 99% av tiden och när väl rejält kraft behövs så ärr en enda dator för långsam för att tillfredställa användaren. Även om enskilda processorer kommer att bli kraftfullare så kommer det "aldrig" att finns tillräckligt med kraft i en enskild dator. Det problemet löses av ett datormoln som formar en enda stor virtuell maskin som kommer att kunna förmedla "tillräckligt" med datorkraft åt hur många användare som helst eftersom behovet av processorkraft är utspritt i tiden och generellt sett så kommer inte alla behöva den kraften samtidigt.

Via ett antal lager av virtualisering där man som användare aldrig accessar hårdvaran (logiskt sett) eller kommer i närheten av operativet så kommer enskilda virtuella maskiner att kunna krascha, och enskild hårdvara kunna gå sönder men operativet och den stora virtuella maskiner kommer aldrig att kunna krascha, bortsett från bugger i själva operativet.

Som användare så skulle ett sånt här system kunna tillhandahålla ofantlig datorkraft till ett stort antal användare, och vara i princip ofelbart och extremt stabilt.


Överskottsprestandan som inte används av användarna skulle kuna användas för samhällsplanering, att låta operativet räkna fram optimala system för trafikplanering, resursfördelning av basvaror i samhället, ekonomi. Operativet skulle kunna driva samhället och företagen som producerar de varor som för tillfället behövs och via detaljövervakning av enskilda innevånares önskemål och behov så kommer inget onödigt att produceras som får slängas eller några brister på produkter som önskas att uppstå.


Själva implementationen av datormolnet och den stora virtuella maskinen och de protokoll som krävs för att få fördelningen av resusrer attt fungera på ett optimalt sätt kommer nog dock att kräva en del tankearbete.
Senast redigerad av Moggy 2011-05-04 15:22:42, redigerad totalt 1 gång.
Moggy
 
Inlägg: 12720
Anslöt: 2007-01-25

Inläggav Moggy » 2008-08-22 19:38:18

Om nanoteknologisk tillverkning av produkter blir möljligt så kan även det skötas av en dator, där innevånarna begär vad man vill ha och så produceras det i princip gratis. De man inte längre behöver lämnas in för nedbrytning på atomnivå och som används för uppbyggnad av nya produkter. Alla kan få i princip vad dom vill då kostnaderna för att producera är i stort sett intet.

Människan kommer inte längre behöva slita på arbeten för att producera utan kan ägna sig och konst och fritidsintressen.
Senast redigerad av Moggy 2011-05-04 15:22:42, redigerad totalt 1 gång.
Moggy
 
Inlägg: 12720
Anslöt: 2007-01-25

Inläggav Saninaé » 2008-08-23 1:16:11

En stor samling datorer/processorer körs tillsammans i ett moln med ett operativ som bygger upp en redundant virtuell maskin som inte är beroende av enskilda datorer för att fungera.

Hemskt ledsen att jag inte orkar läsa hela inlägget kl1 på natten, men jag minns ett nyhets inslag om ett experiment där privatpersoner fick ta med sin dator till en lokal där man kopplade ihop alla i hopp om att kunna utnyttja all datorkraft samtidigt (och uppnå en slags superdator). Experimentet misslyckades, det fungerade inte helt enkelt.

On a side note, det finns tydligen projekt där privat personer kan ladda ner ett program och sedan en datahög för att låta sin egen dator processa allting och skicka tillbaka resultatet, mycket snabbare än att låta en superdator ta hand om det. Allt i vetenskapligt syfte.
Saninaé
Inaktiv
 
Inlägg: 1501
Anslöt: 2006-01-24
Ort: X mil från läsaren.

Återgå till IT-forum



Logga in